やねうら王に関するあらゆる質問はこの記事のコメント欄にお願いします。
ふかうら王の件もこの記事のコメント欄でお願いします。
質問内容は、然るべき場所(主にやねうら王Wiki)に転載させていただいたあと、そこで回答し、ここの質問投稿自体は1ヶ月程度で削除していきます。
また、質問前に下記のWikiをご覧ください。ほとんどすべての情報は、このWikiに書いてあります。
やねうら王Wiki : https://github.com/yaneurao/YaneuraOu/wiki
やねうら王に関するあらゆる質問はこの記事のコメント欄にお願いします。
ふかうら王の件もこの記事のコメント欄でお願いします。
質問内容は、然るべき場所(主にやねうら王Wiki)に転載させていただいたあと、そこで回答し、ここの質問投稿自体は1ヶ月程度で削除していきます。
また、質問前に下記のWikiをご覧ください。ほとんどすべての情報は、このWikiに書いてあります。
やねうら王Wiki : https://github.com/yaneurao/YaneuraOu/wiki
ふかうら王のインストール手順にTensorRTとCuDNNのバージョンが提示されています。
TensorRT : 8.2.4.2
CuDNN : 8.4.0.27
正しくは、下記ではないでしょうか?
TensorRT : 8.4.0.6
CuDNN : 8.2.4.15
そこ、まだ新しいバージョンで動作確認とれてないんです。
何かの節目節目に新しいバージョンで動作確認して、Visual Studioの.propファイル更新していきます。
(あまり頻繁に書き換えても開発している人がTensorRTのバージョン変更するの面倒だと思うのでメジャーバージョンアップの時とかに更新していきます)
「やねうら王のインストール手順」 のページにある「定跡ファイルのダウンロード先」の項目に、「 評価関数ファイルのダウンロード先 から探してみてください。」とありますが、「評価関数ファイルのダウンロード先」のリンクが間違っているようで、やねうら王wikiのトップへジャンプしてしまいます。
失礼しました。亜光速で修正しました。
やねうら王に関するあらゆる質問をしていいというお言葉に甘えさせていただきます。
『将棋神やねうら王2』はいつになったら発売してくださるのでしょうか?
有料版ならではの機能、例えば私が喉から手が出るほど欲しい柿木定跡→やねうら王定跡コンバーターのようなものは、有料版に付けていただきたいと思っております。
『宮本定跡』の唯一の長所は強さでなく、人間的なところです。そこにやねうら王エンジンの棋力が加わったらどうなるのか、考えてみただけで胸が躍ります。
> 柿木定跡→やねうら王定跡コンバーター
いま見たら、柿木将棋の定跡ファイル(KJ2)、わりと読みやすそうな感じなので誰かがコンバーター書いてくれるかも…。
柿木定跡→Bonanza定跡コンバーターは可能な人がおられましたが、匿名で非公開でした。柿木定跡→やねうら王定跡コンバーターも不可能ではないと思われます。柿木定跡、やねうらお様は読みやすいと感じられたようですが、一般人の感覚では逆立ちしても無理なのです。ぜひお願いします!
読みやすいのかと思ったのは、柿木将棋V以降の形式(.KJ2)の方です。それ以前の形式の方は暗号みたいになってますね…。
棋譜管理ソフトの開発者の方が変換機能を実装してくれないかなぁ…。> .KJ2
てst
test
やっぱりメールアドレスがはじかれてますね
初回だけ管理者が承認する必要があります。
前にコメントしたときのメールアドレスの話です。今入力しているメールアドレスだとコメントできてるのでIPアドレスではなくメールアドレスではじかれてるみたいです。
あ、そうなんですか。もしかして「てst」って書いてあったやつですか。これ、スパムかと思って、スパムですボタンを押してしまいましたw
解除しておきました。
元のアドレスに戻してテスト
直りましたね。ありがとうございます。
「てst」は先ほど別のアドレスに変えてみる前に試してみたやつだと思うんですけど(もう覚えてない)、
今のアドレスで書き込めなかったのって5/20あたりに気づいて(結局GitHubで書いた)、それ以前に最後にコメントしたのが1/15なのでもっと前からスパム判定だったんじゃないですかね・・・?
まぁ直ったからいいか・・・。
nn.binの中身ってどうやったら確認することができますか?
その「確認」と言うのが可視化という意味なら、そういうプログラム書かないと…。
データ自体は8bitと16bitの数値ですけど。
https://www.apply.computer-shogi.org/wcsc28/appeal/the_end_of_genesis_T.N.K.evolution_turbo_type_D/nnue.pdf
やねうら王とStockfishのコードを並べて勉強させていただいてます。
丁寧なコメント、助かってます。
【YaneuraOu/source/engine/yaneuraou-engine/yaneuraou-param.h】ではStockfishの内容もところどころ取り入れられてるように思われますが、やねうら王のparam.hの部分はStockfishではどのあたりに該当されますでしょうか?
Stockfishを追っていても見当たりませんでした。
それはやねうら王独自のコードです。探索パラメーターの自動調整の時に使います。Stockfishの方は、探索パラメーターを調整する仕組みが別であるようです。(詳しくは知らない。)
やねうら王のパラメーター自動調整について : https://github.com/yaneurao/YaneuraOu/wiki/%E3%83%91%E3%83%A9%E3%83%A1%E3%83%BC%E3%82%BF%E3%83%BC%E8%87%AA%E5%8B%95%E8%AA%BF%E6%95%B4%E3%83%95%E3%83%AC%E3%83%BC%E3%83%A0%E3%83%AF%E3%83%BC%E3%82%AF
こんにちは。
お世話になっております。
やねうら王wikiを参考に、飛車降る評価関数の作成に取り組んでいます。
学習を走らせた際に、hirate evalやmove accuracy、test_cross_entropy〜,learn_cross_entropy〜などいろいろな値が出てきます。
開発者の方々はロスを見て学習の進捗度や成果を判断なさるとお聞きするのですが、具体的にロスとはどの値を指しているのか、
どこの値がどのように変化していくとある程度成功していると判断できるものなのでしょうか?
> ロスとはどの値
cross_entropyとついてるのがロスですね。(正確には損失関数をcross entropyに設定した時のその関数の値)
testとついているのは検証用のデータとのロス(違い)、learnとついているのは学習データとのロス。
前者が下がってないと強くなってない可能性が高いです。
ありがとうございます!
wikiやこちらのコメントのおかげで、楽しみが増えました。
もうひとつだけお聞きしたいのですが、やねうら王のビルドを行うのにVSとclang,g++ではどのくらい性能差が生じてしまうのでしょうか?
VSとClangですと10-20%(後者の方が速い)、
g++とClangですと1-3%(後者の方が速い)
ですね。
そんなに差があるのですね。。
勉強になります。
wikiの学習の欄に
“etaを連続的に変化させるには、
eta1 0.01 eta2 500 eta1_epoch 100 eta3 30 eta2_epoch 500”
とありますが、eta1とeta2のみで、徐々に率を落としたいときは2の方を小さくするという認識であってますよね?
nodchipさんの学習記録も参考にしてますが、”eta1=1e-8 eta2=1.0 eta1_epoch=100″とありました。この場合は1.0に向けてどんどん増やしているってことですよね?
学習率は進むに連れて下げていくものだと勝手に認識していて、私の認識違いなのか気になりました。。
> etaを連続的に変化させるには、
それKPPTのころの学習なのでNNUEではそんなことしないほうがよろしいです。
(学習率自体はlossが下がらなくなれば自動的に小さくなっていきます)
>>(学習率自体はlossが下がらなくなれば自動的に小さくなっていきます)
これはnewbob機能がオンの場合の話ですよね?
この機能リジェクト回数といい使いこなすのわりかし難しいですよね(汗
そこはデフォルトでONにしておくのが普通だと思います。> newbob
気に要らなければ、一定の学習ごとにetaを1/2にするようなコードを自分で追加してもいいかと。
VS2022でビルドしようとすると、{YaneuraOu-5.33\source\eval\nnue\trainer\trainer.h(16,10): fatal error C1083: include ファイルを開けません。’cblas.h’:No such file or directory (ソース ファイルをコンパイルしています eval\nnue\evaluate_nnue_learner.cpp)
1> apery_book.cpp}
とでてエラーになってしまいます。
考えられる理由や改善策はありますかね..
NNUEの学習版のビルドは、OpenBLASというライブラリに依存してて、それインストールする必要があります。(OpenBLASとかでググってみてください)
インストールわりと面倒なので、学習版は、MSYS2 + Clangでビルドするのがお勧めです。
お世話になっています。msys2にて学習用のmakeを試みたところ、 下記のエラーが出ます。最新の7.〇〇では問題なくmakeできますが、4.〇〇,5〇〇でこのエラーがでてしまいます。movepick.hの該当する行は最新のものと変わりないので、どう対応するべきか教えていただけますと幸いです。
In file included from movepick.cpp:1:
./movepick.h:38:27: error: no member named ‘numeric_limits’ in namespace ‘std’
static_assert(D <= std::numeric_limits::max(), “D overflows T”);
~~~~~^
./movepick.h:38:42: error: ‘T’ does not refer to a value
static_assert(D <= std::numeric_limits::max(), “D overflows T”);
^
./movepick.h:22:19: note: declared here
template
^
./movepick.h:38:46: error: no member named ‘max’ in the global namespace
static_assert(D <= std::numeric_limits::max(), “D overflows T”);
~~^
3 errors generated.
make[1]: *** [Makefile:169: ../obj/movepick.o] Error 1
numeric_limitsがstdにないということなのでは。static_assertはコンパイル時のチェック用なので、削除しても動作に影響ないのでそれらの行は消してしまえばよいかと思います。
ただ、やねうら王の開発方針としては比較的最新の環境でコンパイル通ればいいやと思っているので、いずれ、古いMSYS2(や、古いgcc/Clang)では、コンパイル通らなくなります。
無事にビルドできました。
ありがとうございます。
ソースコード読み比べていて気になったのですが、VSCodeでlearn.cppを近年のやねうら王と2018年のtanuki-で並べたところ、やねうら王側だけ18行の#if defined(EVAL_LEARN)から最後の#endif // EVAL_LEARN
までアクティブではない色付け(?)となっているみたいで、画像のように薄い色で表示されてしまいます。
elmo式学習のlambdaの式を変更して、その影響を調べるために、検証しようと思っているのですが、該当部分を書き換えても適応されないみたいです。
最近興味を持ってばかりの初心者なので、調べても何が原因なのかはっきりせずです..
教えていただけますと幸いです。
左 tanuki-2018 右YaneuraOU
https://i.imgur.com/V3fPVD5.gif
EVAL_LEARNをdefineしてビルドしないと(これを学習版と呼ぶ)学習関係の機能は使えないです。詳しくは、やねうら王Wikiのほうをご覧ください。
https://github.com/yaneurao/YaneuraOu/wiki
Youtubeの動画拝見いたしました。
AWSの使用なのですが、動画を参考にやってみようと思います。
例えばギガ単位の大きいファイルを転送した際などに掛かる通信費等、CPU使用料以外にこれやるとお金高くなるから気をつけろよ要因は何かありますでしょうか…?
AWSではネットワーク帯域に関する課金は、下り(download)方向だけですので、将棋AIでは下りはほぼ使っていないので無視できるかと思います。
インスタンスの終了忘れが一番怖いですね。それ以外は誤差です。(請求明細には翌日に反映されているので、それ見てどれくらいの料金になっているか確認しましょう)
コメントしてから迅速にご対応頂き感謝申し上げます。
使用金額の件、了解です。
初めてクラウドサービスを借りるのでその点が心配でした。
使う時には常に切ることを肝に銘じますね。
やねうら王evallearnで学習を行う際はthreadsとusi_hashコマンドをあらかじめlearnコマンド以前に打ち込んでおかなければPCスペックを活かしきれずに学習することになってしまいますか?
それとも自動的にそのpcのスレッドとメモリは上限まで使用されるのでしょうか?
前者だったと思います。(タスクマネージャーで確認してみてくだされ)
https://github.com/yaneurao/YaneuraOu/wiki/%E6%80%9D%E8%80%83%E3%82%A8%E3%83%B3%E3%82%B8%E3%83%B3%E3%82%AA%E3%83%97%E3%82%B7%E3%83%A7%E3%83%B3
このページの記述、今はデフォルトが1024 MBになったので要らないのでは。
> ⚠ この値はデフォルトでは16 MBとなっていて、ほとんどメモリを消費しませんが、その代わり、現代のPCでは少なすぎます。かならず、お使いのPCの空きメモリに合わせた値を設定してください。
おお、そだそだ。修正しておきました。
現在、gensfen → learn → 新たな評価関数でgensfen →learn … のサイクルを行っています
2点質問があるのですが、
・評価関数ごとにgensfenの速さは変わり得るのでしょうか? 早く作ってくれるときもあれば遅いときもあり困惑しています
・gensfenで教師を作る速さを上げるには、コアスレッド増やす以外で何かありますでしょうか?
12c20tで 深さ9で1千万局面 作成に1,2日かかることもあり、相場が分かっておりません
よろしくお願いいたします
> 評価関数ごとにgensfenの速さは変わり得るのでしょうか?
普通はそこまで変わらないのですけど、まったくのゼロからですと、評価値がゼロばかりな評価関数だと探索深さがなかなか深くならないので時間がかかる、みたいなところはあるかもです。
> gensfenで教師を作る速さを上げるには
深さ減らすのが一番効果的ですね…。イテレーション(gensfen →learn … のサイクル)の最初のうちはそんなに深くしてもあまりそれには見合わないでしょうし…。
やねうら王V7.50にて下記のような定跡ファイルを作成し、飛香落ちで対局したところうまく定跡にヒットしてくれません。
#YANEURAOU-DB2016 1.00
sfen lnsgkgsn1/1r5b1/ppppppppp/9/9/9/PPPPPPPPP/1B5R1/LNSGKGSNL w – 1
3c3d 7g7f 0 32 100
ありゃ。そうなんですか。次回改修のときに調査しますね。
上記の件、私の勘違いでした。
sfen文字列を改めて確認したらそもそも飛香落ちの局面ではありませんでした。
下記のように修正したら通常通り定跡ヒットします。
#YANEURAOU-DB2016 1.00
sfen lnsgkgsn1/7b1/ppppppppp/9/9/9/PPPPPPPPP/1B5R1/LNSGKGSNL w – 1
7a6b 7g7f 0 32 2
お騒がして申し訳ありませんでした。
おお、そうでしたか。それは良かったです。
少し古い話ですが、スーパーテラショック定跡は今どこまで進展しましたか?
電気代がもったいなくて回してないです。
あんな幅の広い定跡を生成するのは、まだ10年ぐらい速いんでしょうね…。
そうですか…今後に期待します。
将棋神やねうら王に棋譜解析は入れないのですか
将棋神やねうら王2で入れる棋譜解析を将棋神やねうら王のアップデートで追加する予定なのですが、この2の開発が滞っており…。
そうですか。頑張ってください。
強い将棋ソフトの作り方の本を読みました。やねうら王の作り方の本は出ないのですか?個人的には、ルールの実装とか指し手生成とかマルチスレッド対応とか色々と気になってコードを読んだりしているのですが、初心者なので分からない事が多くて解説がほしいのです。
以前からそういう書籍書かないと技術が失伝するのではないかという危機感はあるんですけど、私が書くのも大変で…
そうですか…(T^T)
また何かあったら告知お願いしますね。
どうぞよろしくお願いいたします。
このページに登録されているメールアドレス変更したよ
wcsc33ではもうcsaのライブラリは使えません
やねうら王は対策してますか
どゆこと??
ライブラリ制度はWCSC30から廃止になっとるだすよ。
http://www2.computer-shogi.org/wcsc30/new_principle.html
ふかうら王7.63はCUDA12.0でも動きますか
Visual Studioでビルドしなおせば動くのではないかな…。
こんにちは。恐れ入りますが、自分は「GNU Make 4.4.1」で”make normal”して構文エラーが出てきました。
YaneuraOuのリポジトリのActionsを見ると、「Make CI (DeepLearning for Windows)」以外のmakeは昨日から全部落ちてるみたいですが、自分のビルド失敗とは同じ原因なのでしょうか。
いま大型update中なので、とりあえず、10月以前のバージョンでmakeしてくだされ…。
evallearnのgensfenコマンドについての質問です。depth9でloop4億ほどで生成しようとしたところ、1時間弱(毎回百数十万ほど)で止まってしまいます。タスクマネージャーを見る限りCPUはガッツリ動いてはいるようですが、cmd画面やファイルの更新も止まっています。
環境は13900kでthreads24かつhash32gbで動かしています。
msys2よりg++,Avx-2でビルドしたものでこのようになることを確認しています( 7.50と10/24時点で最新のものどちらも試しました)
少ない情報で恐縮ですが、考えられる原因はなにかございますでしょうか?
⇓この問題じゃないっすかね…。
https://yaneuraou.yaneu.com/2017/06/30/%e3%80%90%e8%a7%a3%e6%b1%ba%e3%80%91gensfen%e3%81%a7%e6%95%99%e5%b8%ab%e5%b1%80%e9%9d%a2%e7%94%9f%e6%88%90%e6%99%82%e3%81%ab%e9%81%85%e3%81%8f%e3%81%aa%e3%82%8b%e5%95%8f%e9%a1%8c/
これは、置換表を対局開始ごとにクリアする(Learner::init_for_game()を呼び出す)と解決するかもです。
init_for_game()の手前に書いてあるコメントを読んでみてください。
[2023/11/06 21:20追記]
もしかすると固定depthで王手延長し続けて終わらないパターンかも知れないです。
2023/11/06のcommitで対策しました。
NNUEが表現力の限界に近付いていると聞きました。それを打破するために、入力としてPPやKKP、KPPなどを使うとどうなるか十分な検証はされているのでしょうか?
恐らくされているでしょうし、重くなってNPSが落ちすぎる割に合わないのかもしれませんが、個人的に気になるところではあります。
そのへん、学習を回すだけの計算資源、誰も持ってないんですよねー。いま、tanuki-さんがPyTorchでNNUEの学習回す作業されてるんですけど、まだ、やねうら王純正の学習器より最終的な精度(棋力)が悪いようで…。あれがちゃんと動けばそういった実験もしやすくなるんでしょうけども…。
Ubuntu 上でやねうら王をビルドし、無事 YaneuraOu-by-gcc というバイナリが得られました。しかし、eval ディレクトリに nn.bin というファイル(多分評価関数の正体)がないため、
isready
で失敗してプログラムが中断になりました。その後、ネットに転がってる誰かが作成した nn.bin を拾ってきて無事初手 26 歩まで指させることに成功しましたが、nn.bin の取得手段があまりにも非正攻法的な感じがしたので、なにかアドバイスいただけると幸いです。
Windowsなら水匠5がバンドルされてる実行ファイルをやねうら王のGitHubで配布しています。
ソースコードから自力でビルド方面の方には、たぬきさん(nodchip)のHaoとLíをお勧めしています。
https://github.com/nodchip/tanuki-/releases
またGitHub Sponsors/FANBOXで御支援いただいた方には、何らか最新の評価関数をお配りしています。
FANBOXでやねうら王のバイナリが配布されていますが、これらのエンジンに対する質問はFanboxの該当NewsLetterページで行った方がいいのでしょうか。
せっかくなのでそのままここで質問しますが、非Windows系(UbuntuやMacを予定)でやねうら王を使おうと思っています。Githubの最新CommitをCloneして自分でビルドしたバイナリと、NewsLetterで配布されているバイナリは同じ強さのものになりますか?
(答えづらかったら、メールや別ページなどの適した質問場所を教えていただければ…)
> Githubの最新CommitをCloneして自分でビルドしたバイナリと、NewsLetterで配布されているバイナリは同じ強さのものになりますか?
ダウンロードリンクの前の行に開発版と書いてあるものは開発版です。
開発版と書いてないものは、GitHubのものをやねうら王Wikiに書かれている方法でビルドしたものです。
前者のビルドについて詳しくは yaneurao@gmail.com までメールください。
私は「将棋神やねうら王」にUSI将棋エンジンを追加登録していて、その数は間もなく200に達しそうです。おかげさまで、楽しい時間を過ごせています。
ただ残念なことに、最新のV.1.40は、まだ USI_HASH オプションに対応していないのでハッシュの値が調節できません。
やねさんの
https://yaneuraou.yaneu.com/2020/02/06/%e3%80%8e%e5%b0%86%e6%a3%8b%e7%a5%9e%e3%82%84%e3%81%ad%e3%81%86%e3%82%89%e7%8e%8b%e3%80%8fupdate3%e3%81%be%e3%81%a7%e3%81%ae%e9%81%8a%e6%88%af%e6%96%bd%e8%a8%ad%e3%81%9d%e3%81%ae2/
での書き込み:
————————————–
>やねうらお
>2020年8月20日 06:43 より:
>
>とりまMyShogiの次のバージョンでは、そこ修正されてます。
————————————————————
を読むと、USI_HASH オプションに対応したバージョンはできているようですので、公開していただけると、とてもうれしく思います。
ご検討いただければ幸いです。
開発用のPC新しくしたときにMyShogiのプロジェクト、NASに移動させたままなのでこれ持ってくるの大変なんす..
今年はMyShogiなんとかするかも知れないです..(考え中)
お返事ありがとうございました。
WCSC34で、NNUE型評価関数を搭載したやねうら王将棋エンジンが優勝したのですから、今年はMyShogiにとって、チャンスだと思います。
やねうら王V8.30 GitHub版のリリース、ありがとうございました。
ところで、以前のやねうら王には、tanuki-のNNUE_HALFKP_VM用のエンジンがありましたが、今回のバージョンにはそれに相当するものはありますか?
ご回答いただければ幸いです。
つけてないです..それに対応した評価関数ファイル、使ってる人、たぶんいないと思うです..。
『タヌキの為に鐘は鳴る』でhalfkpvmが使われていることに気づきました。この評価関数タイプ対応の実行ファイル、やねうら王News Letterで配布します。
ご回答ありがとうございました。
やねうら王V8.30 GitHub版のリリースありがとうございます。
makebook thinkで生成してる定跡でbookファイルに該当する定跡ファイルはあるのですが、うまくいきませんでした
ペタショック定跡のコマンド入れると
convergence check 0%[ のところで毎回落ちます。
powershellの問題なのか、試しにコマンドプロンプトのほうでやるとRead a book DBで
info string Error! : can’t read file : book/〇〇.db と出てきました。
> info string Error! : can’t read file : book/〇〇.db と出てきました。
定跡ファイルが読み込めてないっぽいです。
実行ファイルがあるフォルダがworking directoryになっている状態で起動しないといけないので、
$ engine\YaneuraOu_xxx.exe
みたいな起動の仕方をすると動かないです。
> convergence check 0%[ のところで毎回落ちます。
これはまた別の問題のような気はします。
book.dbファイルをメールか何かでもらえたら調べてみます。
一時ファイルの書き出す場所が一貫してなかったので修正しました。お手数おかけ致しました。m(_ _)m
https://github.com/yaneurao/YaneuraOu/commit/b4cd8590bfd367a841b13347595be79c1d77e961
やねうら王をC++23に移植しています。
Positionクラスのsetやdo_moveを呼び出すのにStateInfoを渡さないといけないという仕様が違和感があるのですが、PositionにStateInfoの配列を持つ、もしくはnewするのではいけないのですか?
また、C++23ではBitboards::initとPosition::initで初期化しているテーブルはコンパイル時定数にできるため、少しは早くなりそうな気がします。(C++20でもおそらくできるとは思いますがC++17ではきつそう。)
> PositionにStateInfoの配列を持つ、もしくはnewするのではいけないのですか?
newはげろげろ遅くなるので論外、PositionにStateInfoの配列用意するのは固定長だと手数増えてくると超えかねないのでNG、可変長だと増えてきたときにresize発生するので論外。ということです..
std::vectorとかでstackから確保するようなAllocator(それも結局はある一定以上はヒープから確保する)を使うのはどうですか。最初から512個分とか確保しとけばresizeはあまり発生しないのでは?
千日手判定のためにStateInfoのポインタ遡ったり、ふかうら王の実装のようにPositionクラスを頻繁にコピーしたり、そういうことに対してオーバーヘッドが本当にないかという問題がありますね。
StateInfo、do_moveで渡すのちょっと面倒くさいというのには同意するのですが、ここ直すのはロジックがいたずらに複雑になりますし、Stockfishとの差分が大きくなりますし、そして、ここを直したところで、do_moveが少しすっきりするだけで速度的には全く変わらない(むしろ遅くなる可能性の方が高い)なので、デメリットばかりが目立ちます。
なるほど。
ご丁寧にありがとうございました。
与えられた評価関数(nn.bin)からNNUEのアーキテクチャを取得したいのですが、主要なアーキテクチャのファイルサイズを調べといて一致するやつを調べるしかないですか?
NNUEではヘッダーにアーキテクチャを一意に表現する文字列が埋め込まれているのですが、その文字列、開発者が変更するのを忘れることがありまして…。
現状、ファイルサイズを調べるのが一番有力のようです。
アーキテクチャとファイルサイズの相互変換は可能でしょうか?
「相互変換は可能」が全単射のことを意味するなら、(いまのところ)そうなっとります。
こんにちは。ShogiEvalBar (**評価値バーを将棋のGUIに表示する)**をダウンロードしましたが、バージョン7.63です。現在、バージョン8.30に更新されていますが、新しい更新版で ShogiEvalBar (**評価値バーを将棋のGUIに表示する) **を使用するにはどうすればよいでしょうか? どうもありがとうございます。
ShogiEvalBarのことは配布者の方に質問おねがいします。
AVX-512やAVX-512-VNNIといった形式のやねうら王を使用することは、AVX-2のそれに比べてどのくらい高速化するのでしょうか。NNUE型の将棋ソフトを動かす際にRyzenかIntelのどちらを買うべきか迷っているので…
標準NNUEの場合で、10%程度高速化するようです。
ただし、水匠10beta(NNUE_halfkp_512x2_8_64の512)のように、16の倍数ではないlayer(512x2_8_64の8のところ)があると、ここがAVX-512の命令が使えず、fall backする(AVX2の命令で処理を行う)ので、高速化が期待できないようです。
また、AVX-512/AVX512-VNNI用のやねうら王は、やねうら王のV8.40以降でないと正常に動作しないことがあるようです。(現在GitHubのReleasesで配布しているのはこれより古いバージョンです。V9.00系のリリースのときにその実行ファイルを配布しようかと思っています。お急ぎでしたら、やねうら王News Letterの購読もご検討ください。)