米国発のAIスタートアップAnthropicと米政府との法的紛争が、同社の顧客であるFigmaなど他の事業会社にとって新たな財務リスク要因として浮上している。連邦機関によるAnthropic製AIモデルの使用禁止措置が現実味を帯びるなか、政府向けサービスを展開する企業は契約継続の可否に揺れている。この動きは日本企業のAI調達戦略にも影響を及ぼし始めた。
政府調達からの締め出し懸念が広がる構造
Anthropicは現在、自社の大規模言語モデル「Claude」を連邦政府機関が使用することの是非をめぐり、米政府と対立している。問題の発端は国家安全保障上の審査プロセスであり、特定のAIモデルが機密情報の取り扱いに適さないと判断された場合、政府機関との取引から事実上排除される可能性がある。
この審査はAnthropic単体の問題にとどまらない。米政府と年間数百万ドル規模の契約を結ぶSaaS企業にとって、自社サービスにAnthropicのAPIを組み込んでいる場合、その契約全体がリスクにさらされる構造が明らかになった。業界関係者によると、連邦政府向けクラウド認証「FedRAMP」の取得済み企業であっても、サードパーティAIモデルの審査結果次第では認証の一部停止があり得るという。
FigmaのAI機能が直面する調達障壁
デザインツール大手Figmaは2024年に実装したAI支援機能の一部にAnthropicのClaudeモデルを採用している。同社は政府機関にも幅広く導入されており、米国デジタルサービスや各州の行政ポータル開発で使用実績がある。
政府調達データ分析のGovTribeによれば、Figmaの親会社Adobeを含むグループ全体で、連邦政府とのアクティブな契約残高は2025年3月末時点で推定4200万ドルに上る。Anthropicモデルの政府利用が禁止された場合、Figmaは対象機能を政府向けインスタンスから除去するか、代替モデルへ差し替える必要に迫られる。機能差し替えに伴う開発コストと検証期間は最低でも6〜9カ月と見積もられ、その間の契約更新に支障をきたす恐れがある。
他のスタートアップにも連鎖する契約停止リスク
AnthropicのAPIを利用する企業はFigmaだけではない。法的文書作成のRobin AI、マーケティング分析のJasper、カスタマーサポートのIntercomなど、生成AIを組み込んだ多数のSaaS企業が同様のリスクを抱える。
特に深刻なのが、AI機能を中核価値として販売してきたスタートアップ群だ。連邦政府向けに特化した営業を展開してきた企業のなかには、年間経常収益の15〜25%を政府契約に依存するケースもある。あるベンチャーキャピタルのデューデリジェンス資料では、投資先10社のうち3社が「AIモデルの政府審査リスク」をSEC提出書類のリスクファクター欄に新たに記載したと報告されている。
AI企業と政府の緊張が生む調達分断
米政府は2024年10月に「連邦AIガバナンス枠組み」を発表し、国家安全保障に影響を与えるAIモデルの事前審査を義務化した。Anthropicはこの枠組みに対し、審査基準の不透明性と手続きの長期化がイノベーションを阻害すると反論している。両者の交渉は現在も継続中だが、業界では最長で12カ月の審査遅延が発生しているとの証言がある。
マイクロソフトやグーグルなど大手クラウド事業者は独自モデルを政府専用クラウド内で完結させる戦略に舵を切っており、Anthropicのような純粋なモデルプロバイダーは不利な立場にある。調査会社ガートナーのアナリスト予測では、2026年までに米国政府向けAI調達の60%以上が閉域環境で動作するファーストパーティモデルに集中するという。
日本企業のクラウド調達に及ぼす教訓
この騒動は日本市場にも直接的な示唆をもたらす。デジタル庁が推進するガバメントクラウドでは、Amazon Web ServicesやGoogle Cloudなど米国事業者のインフラ上でAI機能を利用するケースが多く、サードパーティモデルの審査動向が調達条件に反映される可能性がある。
実際、2025年度の政府情報システム調達ガイドライン案では、海外製AIモデルの利用に関するリスク評価項目が前年比で2倍に増加した。国内のシステムインテグレーター幹部は「官公庁向けシステムにAnthropicのAPIを採用している案件が複数あり、米国の審査結果によっては設計変更を余儀なくされる」と述べる。AI調達の地政学的リスクは、もはや米国だけの課題ではない。