2045年頃にシンギュラリティが起きると言われている。技術の進歩が予想以上に速いことから、これが早まる可能性があると考える研究者も多い。
私はシンギュラリティはもう来てるんじゃないかと思っている。今回はその根拠について少し書く。
岡谷貴之さんの『深層学習』(第二版)には「student gradient descent」という言葉が出てくる。ちなみに、この本は第一版から大量にページが追加されて、第一版とは全く別の内容となっているので、第一版を買った人も是非第二版を手にとって欲しい。
さて、このように大学院生がランダムな思いつきを端から試すことで得られた深層学習のアイデアやテクニックやらがたくさんあるのが現在のこの界隈の状況である。
彼らは決してIQ 500のような超知能を持つわけではないが、彼らが試行錯誤することにより技術的な前進が得られているわけである。
つまり、シンギュラリティに必要なのはIQ 500のような超知能を持つAIなどではなく、IQ 120か130ぐらいの知能を持つAIがいまのAIの研究者(世界で数十万人?)ぐらいの数だけあることなんじゃないかなと思うわけだ。
そうすれば、シンギュラリティの入口であるAIが勝手にAIを改良していけるフェーズに入れる。そもそも、IQ 200にしても、正規分布と仮定して標準偏差15で考えると764億人に一人の割合(※1)なので、世界に一人いないだろうし。いまの科学って、超天才一人だけで回っているわけではないと思うんだよね…。
※1 : z = (X-μ)/σ = (200-100)/15 = 100/15。1 / (1 – stats.norm.cdf(z)) = 76429353031.31941
あとAIの場合、学習は人間の何万倍も速いし、アウトプットも人間の何百倍も速いし、24時間稼働できる。そう考えるといまの人間の研究者の数(数十万人?)の1/100もAIがあれば人類を上回る速度で研究ができるのではなかろうか。それくらいでいいなら、ビッグテックはすでにそれに足るだけの計算資源持ってない?じゃあ、もうシンギュラリティ来てるんじゃない?逆にあと何が足りないと言うの…?
あ、もしかして、そのような計算資源の使い方をするぐらいなら、AIの研究者を年間100万ドルぐらいで雇ったほうが安いってことはあるか?それなら納得ではある。先端領域ではまだAIの単価が高すぎて人間がAIの職を奪ってる説はあるか?
細かい語義はさておき、「もっと棋力上げといて」と一言命令するだけであとは決められた時間内に全部やってくれる将棋ソフトみたいのができたらシンギュラリティと思いますね。
改良案を沢山出させたとして、それの手法の有効性を人間が比較して選んで汗かいて改良してるとそんな感じがしないです。
「ブレスト用のソフトができた」というだけかなという感じです。
多分、ビッグデータをもとに大量にブレストができるソフトができたことを指す言葉としてシンギュラリティが生まれたわけではないっぽいと思います。