EU、AnthropicとAI脆弱性テスト協議
欧州連合(EU)は、米人工知能(AI)企業アンセリック(Anthropic PBC)と、同社が開発した次世代大規模言語モデル「Mythos」が発見したセキュリティ脆弱性について、域内の金融機関や大企業に対して実証テストを実施させる方針で協議を続けている。この動きは、EUが推進するAI法案の実施段階において、生成AIの安全性と信頼性を確保するための具体的な措置として注目されている。
Mythosモデルは、従来のセキュリティ監査手法では検知困難な高度なコード解析能力を有しており、複雑なシステム内部の隠れた脆弱性を高精度で特定できることが実証されている。EU委員会はこの能力を、域内にある銀行や保険会社、重要インフラを運営する企業などのサイバーセキュリティ強化に活用しようとしている。特に、金融セクターはサイバー攻撃の標的となる頻度が高く、新しい脅威への対応が急務となっているため、Mythosを用いたプロアクティブなテストは大きな意味を持つ。
協議の焦点は、テストの実施範囲とデータ保護のバランスにある。EU側は、テスト対象となる企業の機密情報が外部に漏洩しないよう厳格な管理下で実施することを求めている。一方、アンセリック側は、モデルの性能を最大限に引き出すためには、実環境に近いデータへのアクセスが必要であることを主張している。両者は現在、テスト環境の構築や責任の所在、テスト結果の報告形態などについて詳細な合意形成を進めている。
EUの担当者は、「これは単なる技術的な検証ではなく、欧州のデジタル主権を守るための重要な一歩だ」と述べ、民間セクターとの連携を通じてAIリスクを軽減する枠組みを整備する意欲を示している。もしこの協議が順調に進めば、今後、EU域内の主要企業に対してMythosモデルを用いた脆弱性診断が義務付けられる可能性もある。
この動きは、AIの急速な進化に規制が追いつこうとする国際的な潮流の表れでもある。米国や中国などの主要国も同様の取り組みを進めている中、EUが独自の基準を確立することは、世界のAIガバナンスにおいて大きな影響力を持つだろう。関係者は、来月までに具体的なテスト計画の草案が発表される見通しだ。