Anthropicがアカマイと1800億円契約 推論需要が変える調達戦略

AI開発企業のAnthropic PBCは、クラウドサービス大手のアカマイ・テクノロジーズと総額18億ドル(約2700億円)規模のコンピューティングリソース調達契約を締結した。同社の生成AIソフトウェアに対する急増する推論需要に対応するため、従来のハイパースケーラー集中型からマルチクラウド調達へと戦略を転換した動きだ。

マルチクラウド戦略へ転換した18億ドル契約

関係者によると、Anthropicはアカマイの持つ分散型エッジネットワーク上で大規模言語モデル(LLM)の推論処理を実行する契約を結んだ。契約総額は18億ドルで、期間は複数年にわたる見込みである。この数字は、Anthropicが2025年に計画する総調達額の一部を構成するものとみられる。

アカマイは従来、コンテンツ配信ネットワーク(CDN)とセキュリティサービスを主力としてきたが、近年はAI推論向けの分散コンピューティング基盤の整備を進めている。同社は世界130カ国以上に約4100カ所のPoP(接続拠点)を持ち、エンドユーザーに近いロケーションでの低遅延処理が可能になる点が、リアルタイム応答を要するAI推論ワークロードとの親和性を高めている。

Anthropicにとっては、創業時から関係の深いアマゾン・ウェブ・サービス(AWS)やGoogle Cloudに加え、第三の大規模インフラ基盤を確保する意味合いが大きい。同社は2023年にGoogleから20億ドル超、2024年にはアマゾンから40億ドルの追加出資を受けており、両クラウド上でのモデル学習を優先的に行ってきた経緯がある。

推論需要の急増が変えるインフラ調達の構図

本契約の背景には、AI業界全体で学習(トレーニング)から推論(インファレンス)へとワークロードの重心が移行しつつある構造変化がある。AnthropicのClaudeシリーズに代表される対話型AIは、一度の学習に数億ドル単位の計算コストを要する一方、サービス提供段階では日次・時間単位で変動する推論需要への即応が求められる。

調査会社セミアナリシスの推計によれば、大規模言語モデルの運用コストに占める推論処理の割合は、モデルの一般公開から12カ月以内に学習コストを上回るケースが一般的だ。AnthropicはClaude 3.5 SonnetやOpusといったモデルのAPI提供を通じてエンタープライズ顧客を急速に拡大しており、推論インフラのキャパシティ不足が事業成長のボトルネックになりつつあった。

この構造はOpenAIも同様で、同社はマイクロソフトのAzure基盤に加え、オラクル・クラウド・インフラストラクチャ(OCI)との契約を2024年に拡大。サム・アルトマンCEOは「計算資源の不足がプロダクト展開の最大の制約」と繰り返し言及している。Anthropicのアカマイ契約は、この流れをさらに推し進め、専業CDN事業者のAIクラウド転換を促す起爆剤となる可能性がある。

国内AI市場に波及するマルチクラウド調達モデル

Anthropicとアカマイの協業は、日本市場においても示唆に富む。国内ではさくらインターネットやKDDIグループがAI向けGPUクラウド基盤の整備を加速させているが、エッジロケーションでの推論最適化という観点では、国内CDN事業者やデータセンター事業者の活用余地が改めて浮上する。

特に金融機関や製造業など、データ主権やレイテンシへの要求が厳しい業種では、海外ハイパースケーラーの中央集権型クラウドだけに依存しない分散推論モデルの価値が高まる。アカマイの日本法人はすでに大手メディアやEコマース企業との取引基盤を持っており、Anthropicが将来的に日本リージョンでのClaude提供を拡大する際、この契約がインフラ面での先行事例になる可能性は否定できない。

投資家視点から見た調達多様化の財務的意味

Anthropicは2025年1月時点で評価額600億ドルでの資金調達を検討中と報じられており、アカマイとの契約は投資家に対するリスクヘッジのシグナルとしても機能する。単一クラウドプロバイダーへの過度な依存は、価格交渉力の低下やサービス障害時の事業継続リスクを招くためだ。

アカマイ側にとっても、CDN市場の成長鈍化を見据えた事業変革の柱として、AI推論インフラへの投資家の理解を得やすくなる。同社の2024年度第3四半期決算では、セキュリティ事業は前年同期比14%増と堅調だったが、デリバリー事業の伸びは一桁台にとどまっていた。18億ドル規模の大型契約は、AIパイプラインの具体性を市場に示す材料となる。

2026年に向けた推論インフラ競争の焦点

今回の契約は、AI業界の調達競争が「学習向けGPUの確保」から「推論向け分散ネットワークの設計」へとフェーズ移行する転換点と位置づけられる。NVIDIAのGPU調達を巡る争奪戦に次ぐ、次の主戦場は推論レイテンシとコストの最適化だ。

ボストン・コンサルティング・グループの試算では、エンタープライズ向け生成AIの推論コストは、エッジ分散処理によって理論上30〜50%削減できる余地がある。Anthropicがアカマイのエッジ基盤でこの効果を実証すれば、同様の契約が他のAI開発企業とCDN事業者の間で連鎖的に生まれるシナリオが現実味を帯びる。

AIモデル開発企業がクラウド調達先を多様化する動きは、インフラ側の競争を促進し、結果的にAPI利用料金の低下という形でエンタープライズ顧客に還元される。Anthropicのアマゾン・Google・アカマイにまたがるマルチクラウド体制は、AIインフラ市場が垂直統合から水平分業へと再編される前触れといえるだろう。