ノーベル受賞の研究者が、AIの急激すぎる進化に危機感を表明
喜びよりも、危機感が伝わります。
2024年のノーベル物理学賞が、2人の人工知能(AI)研究者に授与されることが発表されました。ジョン・ホップフィールド氏とジェフリー・ヒントン氏は、人間の脳のように動いて情報を記憶しパターンを認識するニューラルネットワークの手法を作り出した研究者です。
両氏の1980年代の研究が基盤となり、ここ10年ほどの人工知能の爆発的な進化につながっています。そして気になるのが、受賞者の2人とも、人類のためにはAIの進化をもっと制御する必要があると主張していることです。
現代につながった1980年代の研究
ノーベル委員会は受賞者発表の声明の中で、ホップフィールド氏がニューラルネットワークに関し最初の論文を書いた1982年以来、AIの分野がいかに発展したかを強調しています。ホップフィールド氏のニューラルネットワークのパラメーター数は500件以下でしたが、現在さまざまな生成AIシステムで使われているパラメーター数は、数億どころか数兆件にも及びます。
ホップフィールド氏のニューラルネットワークは、脳の神経細胞のつながりを、30個のノード同士がつながったネットワークとして表現していました。ノードには0か1の値を保存でき、またノード同士のつながりの強さが一定の式で計算されます。その式に物理学でいうところの原子スピンのエネルギーの方程式が応用されていました。
…と、小難しいんですが、大幅に端折ると、このネットワークは画像をパターンとして記憶でき、かつ記憶した画像と微妙に違う不完全な画像を見せられても、元の画像を思い出すことができました。
ヒントン氏はホップフィールド氏の研究に基づき、単にパターンを記憶して再現できるだけでなく、まったく違うデータから同様のパターンを認識するよう学習できるニューラルネットワークを作り出しました。
1985年、彼はこのネットワークについての論文を公開し、その仕組みを物理学者のルートヴィッヒ・ボルツマンにちなんで「ボルツマン・マシン」と名付けました。
AIをどう制御? 政府の役割も訴え
今あるAIの土台を築いた2人ですが、両者ともに急速すぎる進化には警鐘を鳴らしています。
2023年、著名研究者たちがAI開発企業に対し、OpenAIのGPT-4以上に強力な生成AIシステムの開発を半年間停止するよう求める署名活動を行いましたが、ホップフィールド氏もそこに名を連ねていました。
ヒントン氏は2013年に自身のAIスタートアップがGoogle(グーグル)に買収されて以降、Google Brainに所属していましたが、AIの危険性について公言するために同年退職しています。
ヒントン氏は、人類の知性を超えるようなAIが出現するまでの時間は今後5年から20年と推定し、「人工知能は、人間を思い通りに操る方法を考え出すはずだ」と言っています。
今年9月には、大手AI開発企業に対しさまざまな安全策を義務付ける法案「SB 1047」成立を求める公開文書が米カリフォルニア州知事に提出され、ヒントン氏もその文書に署名していました。ちなみにこの法案は州議会で可決されたものの、ギャビン・ニューサム州知事がテック企業の圧力に屈し拒否権を発動したため、成立していません。
ヒントン氏はノーベル賞委員会からのインタビューで答えています。
「今後数年で、我々がそんな脅威に対処する方法があるのかどうか、判断する必要があります。
いかにコントロールを維持するか、それを今考えることが非常に重要です。かなりの研究努力が必要です。政府ができることは、大手企業が安全性研究への投資を大幅拡大するよう強制することだと思います」
10/10 19:30
GIZMODO