イーロン・マスクのAI証人が懸念するAGI開発競争の危険性

OpenAIに対するイーロン・マスク氏の訴訟で、唯一のAI専門家証人として法廷に立つスチュアート・ラッセル氏が、人工汎用知能を巡る軍拡競争への強い危機感を表明した。世界的なAI研究者である同氏は、政府による最先端AI開発の制限が不可欠との立場を明確にしている。

法廷で浮上したAGI開発競争の実像

マスク氏がOpenAIを相手取って起こした裁判で、AI分野の重鎮スチュアート・ラッセル氏が専門家証人として名乗りを上げた。ラッセル氏はカリフォルニア大学バークレー校の教授であり、AIの標準的教科書として知られる「Artificial Intelligence: A Modern Approach」の共著者である。同氏は今回の訴訟で、営利企業へと変貌を遂げたOpenAIの姿勢が、安全なAI開発という当初の理念から逸脱していると指摘する。

ラッセル氏が最も危惧するのは、複数の先端AI開発ラボがAGIの早期実現を競い合う構図だ。AGIとは特定のタスクに特化せず、人間と同等以上の汎用的な知能を持つ人工知能を指す。同氏の証言によると、OpenAIの最高経営責任者サム・アルトマン氏自身がAGIを「世界を根本から変える技術」と位置づけており、その開発競争には極めて高いリスクが伴う。

国家レベルの規制介入を求める根拠

ラッセル氏はAGI開発を「人類史上最大のイベント」と表現し、市場原理だけに委ねることの危うさを繰り返し訴えている。個別企業の判断や業界団体の自主規制では、巨額の投資と市場支配を狙う開発競争に歯止めをかけられないというのが同氏の一貫した主張だ。

具体的な政策としてラッセル氏が提唱するのは、一定の計算能力を超える大規模モデルの学習に対して、政府の事前承認を義務付ける仕組みである。同氏によると、現在の先端モデルは数千基のGPUを数カ月稼働させる規模に達しており、こうした物理的なボトルネックを監視することで実効性のある規制が可能になるという。国家安全保障の文脈でAIを捉え直し、核兵器や生物兵器と同様の国際的な管理体制を敷く必要性にも言及している。

マスク氏の訴訟戦略とラッセル証言の役割

マスク氏は2015年のOpenAI設立に深く関与した後、経営方針を巡って袂を分かった。今回の訴訟では、OpenAIが非営利の安全研究機関として設立されながら、マイクロソフトとの巨額提携を通じて事実上の営利独占企業に転じたことが、契約違反および信認義務違反に当たると主張している。

ラッセル氏の証言は、この主張を技術面から補強する役割を担う。AI安全性研究の第一人者として、OpenAIの現在の開発競争への傾倒が、業界全体の安全性軽視を助長しているという専門的見解を示すことで、マスク氏側の「設立時の理念逸脱」という主張に信憑性を与えようとしているのだ。法曹関係者によると、AIの権威による証言は陪審員の技術理解を助け、訴訟の行方に影響を与える可能性がある。

日本企業に迫られる戦略の再点検

この法廷闘争とラッセル氏の警告は、日本企業にも無縁ではない。ソフトバンクグループやNTTをはじめとする国内企業が大規模言語モデル開発に乗り出す中、AGI開発競争の激化は調達コストの高騰や人材獲得競争の過熱を招くからだ。また、AI規制の国際的な枠組みが具体化すれば、日本企業の研究開発計画にも直接的な影響が及ぶ。

経済産業省が主導する国内AI政策では安全性と国際競争力の両立を掲げるが、ラッセル氏の主張はそのバランスの再考を迫る内容といえる。過度な開発競争に巻き込まれず、かつ技術的な立ち遅れも回避するという、難しい舵取りを求められることになる。

安全性研究の軽視が招く長期的リスク

ラッセル氏が繰り返し警告するのは、開発速度の追求によって安全性研究が犠牲になる構図だ。同氏の分析では、現在の先端AIラボはリリース直前のモデル評価に安全性予算の大半を費やしており、根本的な安全設計の研究には資金も人材も十分に回っていない。

この構造的問題が続けば、AGIが実用化される段階で致命的な制御不能リスクが顕在化する可能性がある。ラッセル氏の証言は法廷の場を借りて、AI産業全体に突きつけられた本質的な課題を浮き彫りにしている。裁判の判決如何にかかわらず、この問いかけが業界全体に与える影響は小さくない。