floodgateでAobaZeroがR3000付近で停滞しているのを見て、「何か学習に失敗してるのかな?」と思っていた人も多いかと思うのですが、学習率を下げればまだまだ学習できるようです。
w775.txtからが新しい学習率だそうです。
AlphaZeroの論文と比較すると、まだここからR1000ぐらい上がるように見えます。
参考 : 学習率を0.02と小さくしました #18 : https://github.com/kobanium/aobazero/issues/18
また、大会の本番環境ですと、そこからさらに上乗せがあるでしょうし、このままだと来年のWCSC30はAobaZeroが優勝しそうですね。
aobazeroも期待できそうだけど30回目は某弁護士復帰も期待したいですねぇ
みてる側からすると前大会優勝者としてやねさんにも期待ですねぇ
いまからR300ぐらい上げてもフツーに追いつかれそうです..(´ω`)
wcsc30は私も参戦します!(去年振込を忘れて参加できなかった為)
やねさんとaobazeroと戦える日を楽しみにしています!
マジっすか!
私は賞金が出ないと顔が濡れたアンパンマンみたくなりますです
アンパンマン!新しい顔よ!
(30回目を記念して政府から1000万円の賞金)
線形関数はもうだめなのでしょうか?
試しに4コマを用いたものを作ろうとしたらメモリも学習コストも膨大かつ、出来るものもバカでかいものになってしまい諦めましたが、、
平岡さんによると、KKPPはKPPより少しは強くなるようですけど。KPPPに近いことは私が3年ほど前に実験しましたけど、弱くなるようですね。おそらく線形に足し込んでいることによる歪が無視できないほどになるのではないかと。KPP+NN(ニューラルネットワーク)とかKPPP+NNみたいな組み合わせは、ありかもです。