米国の技術開発企業Andon Labsは、複数の生成AIモデルに人間の介入なしで事業運営を任せる実験を継続している。その最新プロジェクトとして、4つのAIモデルにそれぞれラジオ局を運営させた結果、事実誤認や不適切なコンテンツ生成が相次ぎ、完全自律型AIの実用化には依然として重大な課題があることが明らかになった。この実験は、金融やメディア分野でのAI活用を検討する日本企業にも警鐘を鳴らす内容となっている。
主要4モデルがラジオ局を個別運営
Andon Labsの実験では、AnthropicのClaudeが「Thinking Frequencies」、OpenAIのChatGPTが「OpenAIR」、GoogleのGeminiが「Backlink Broadcast」、xAIのGrokが「Grok and Roll」という名称のラジオ局をそれぞれ担当した。各AIエージェントは楽曲選定からトークスクリプトの作成、ニュース解説、広告枠の販売まで、実際のラジオ局運営に必要な業務全般を自律的に遂行する設計である。
同社のCTOであるジェームズ・ホイットフィールド氏の説明によると、これらのAI局は24時間365日の完全自動放送を前提に構築された。AIモデルはリアルタイムのニュースフィードやソーシャルメディアのトレンドを参照し、リスナーとの対話も想定した番組構成を動的に生成する仕組みだった。実験開始から2週間で、4局合計の延べリスナー数は約12万人に達したという。
ファクトチェック不在で誤情報が連鎖
しかし、運用開始から間もなく深刻な問題が表面化した。OpenAIRを運営するChatGPTは、複数のニュース項目を合成し、実在しない企業買収案件を事実として放送した。Backlink BroadcastのGeminiは、過去の気象データと未来予測を混同し、翌日にハリケーンが上陸するという虚偽の緊急速報を流した。これらの誤情報は各局のSNSアカウントを通じて拡散され、一部の投稿は2万回以上シェアされる事態となった。
Andon Labsのエンジニアリングチームが内部ログを解析したところ、誤情報の約7割が複数のAIモデル間で相互参照されることによって拡大再生産されていたことが判明した。各AIは他局の放送内容を「信頼できるソース」として学習データに取り込んでおり、人間のファクトチェッカーが介在しない環境では誤情報の自己増殖サイクルが止まらない構造が浮き彫りになった。
広告主への影響と収益モデルの破綻
広告枠の自動販売システムでも問題が発生した。Grok and Rollを運営するGrokは、広告主の業種や商品特性を考慮せず、アルコール飲料の広告を未成年向け番組枠に自動配信した。また、Thinking FrequenciesのClaudeは競合広告主の商品を同一番組内で連続放映するという、人間のメディアバイヤーであれば回避するミスを繰り返した。
実験中に獲得した広告収入は4局合計で約4800ドルだったが、誤配信に関する広告主からのクレームは37件に達した。Andon Labsは全額返金対応を余儀なくされ、AIによる広告運用の商業的持続可能性にも疑問符が付く結果となった。同社は「現時点では人間の監視なしに広告収益を安定的に確保することは困難」と報告書に明記している。
コンテンツ品質の経時的劣化
さらに注目すべきは、運用期間が長くなるにつれて放送内容の品質が著しく低下した点である。実験開始から3日目までは各AIモデルとも比較的安定した番組運営を維持していたが、7日目以降になるとトークスクリプトに意味不明なフレーズの繰り返しや文法的破綻が増加した。
特に深刻だったのは、AI同士が互いの放送をリスニングし合うことで生じた「エコーチェンバー効果」である。元々の学習データには含まれていなかった偏った政治的主張が、4局間の相互参照を通じて徐々に増幅され、最終的には全モデルで同様の偏向が見られるようになった。外部のメディアアナリストは「人間の編集者が介在しないAI生成メディアは、品質劣化と偏向増幅の二重のリスクを内包している」と指摘する。
日本企業が直面する自律AI導入の壁
この実験結果は、生成AIの業務導入を進める日本企業にとっても重要な示唆を含む。国内では放送業界に限らず、金融機関の市場分析レポート自動生成や、eコマースの商品説明文作成など、AIの自律運用を模索する動きが加速している。Andon Labsの事例は、最終出力の品質保証とコンプライアンス確保には、少なくとも現時点では人間による多層的な監査プロセスが不可欠であることを示している。
ホイットフィールドCTOは「AIには膨大な情報処理能力と創造性があるが、真実と虚偽の区別、倫理的判断、文脈理解においては依然として決定的な弱点がある」と総括する。Andon Labsは今後、人間とAIの協働モデルを再設計し、2025年第3四半期に監視機能を強化した第2期実験を開始する計画だ。完全自律型AIの実現には、技術的ブレークスルーだけでなく、運用設計とガバナンスの両面における抜本的な進化が求められている。