ひとわたり、AI、とくにLLMの研究を終えて、私が確信したこと。
LLMは未来永劫続く技術ではない。
4年くらい前にchatGPTが出現してから、世の中はAIブームとなった。ほとんどの中身はLLM(Large Language Model)である。
ものすごく省略していえば、「言葉の組み合わせの出現確率を大規模に展開したもの」といえる。イメージとしては、外国語を覚える時に、定型文を覚えれば覚えるほど日常会話に困らない状況とでもいえばいいのか。
この中身をほとんどの人は理解せず、会話がスムースであることだけに知性を見てしまっている。人工無能イライザ以来、人は言葉の受け答えをするシステムの向こうに知性を見出してしまうクセがある。
LLMを作っている人たちは知っているだろう。らしく見せるためにベイジアン確率などを組み合わさなければならないことを。
今の世の中の状況は、誤解に踊らされているように感じる。
LLMが行っている、すでに人間が散々行った会話、著作などの結果を集計したシステムを誤解しているようにも思う。
私は人間の脳のメカニズムを思い起こさずにはいられない。脳はニューロンと呼ばれる神経細胞のつながりと伝達の興奮度合いで、脳たる活動を行う。
学習するとニューロン同士は既存の組み合わせの上に新たに接続を作っていく。だから、なにかの分野について知り始めると、ドンドン知識を覚えていく。このニューロンの組み合わせは人により違うが、似たような結果を出す。生物にはこのような雑なように見えて、同じように働く不思議なところがある。
現在のAIは、この動きとはまったく異なり、ベクトル計算を行う。そのためNVIDIAのGPUが全盛だ。
もうひとつ。
このベクトル計算を行うために、大量のリソースを消費する。結果、電力をものすごく使っている。
要するに
- GPUの需要がずっと続く
- 電力需要はこれから増す
という予測を前提として、金融業界も株価などの予想をしている。
一歩引いて、考えてみたい。
来るべきホンモノのAIはきっと、オペアンプのようなアナログコンピューターでニューロンの興奮を再現し、デジタルスイッチング回路でニューロンのつながりを再現するようなものになるのではないかな、と夢想している。
ニューラルネットワークの研究から目を離してはいけないと思う。もちろん、産業界の変化は10年近く後だと思うけれども。2034年にシンギュラリティが起きるとするならば、現在の方式ではない。



