GPT-5.5の実質利用料49〜92%上昇、入力長で格差

OpenAIが最新大規模言語モデル「GPT-5.5」の定価を前世代比で倍増させた。短文応答によるコスト相殺を主張する同社に対し、実利用データからは平均49〜92%の値上がりが確認された。AI推論コストの上昇は止まらず、企業の調達戦略に影響を与え始めている。

公表価格の2倍設定とOpenAIの説明

OpenAIは2026年4月、GPT-5.5のAPI利用料をGPT-5.4の2倍に設定した。同社は発表資料で「応答が従来より簡潔になり、1リクエストあたりの出力トークン数が減少するため、実質的なコスト上昇は限定的だ」と説明している。具体的には、GPT-5.4で長文回答が必要だったタスクが、GPT-5.5では短い出力で完結するケースが増えるという論理である。

しかしこの主張は、OpenAI自身が提示した出力短縮率のデータに依存しており、実際の利用パターンを反映しているかは不透明だった。モデルの挙動変化が顧客のコスト構造に与える影響を、開発元の想定だけで判断することのリスクが指摘されていた。

OpenRouterの実測分析が示す値上げ幅

AIモデル中継サービスOpenRouterは、GPT-5.5の利用実績を分析し、実質的なコスト上昇が49%から92%に達するとの報告をまとめた。同社のデータによれば、入力トークン数が少ないシナリオでは49%程度の上昇にとどまる一方、入力が長くなるほど値上げ幅は拡大し、最大92%に達する。

この差は、GPT-5.5が入力処理にも高い単価を設定している構造に起因する。OpenAIの価格改定は入出力両方のトークン単価を引き上げており、大量の文脈を読み込ませる用途ほど影響が深刻化する。法律文書のレビューや長大な社内データの分析など、エンタープライズ領域で多用されるユースケースほどコスト増が顕著になる計算だ。

OpenRouterの分析には、匿名化された顧客の実際のAPI呼び出しパターンが用いられている。特定のプロンプト設計や出力制御ではコスト上昇を抑制できる可能性があるものの、平均的な利用実態ではOpenAIの主張する「相殺」は十分に機能していないことが浮き彫りになった。

Anthropicも追随、IPO控えた価格戦略

生成AI市場のもう一方の雄であるAnthropicも、同時期にOpus 4.7の価格を引き上げた。同社はOpenAIと異なり値上げの理論的根拠を積極的に開示していないが、性能向上に伴う推論コストの増大が背景にあるとみられる。

両社に共通するのが、新規株式公開(IPO)準備の文脈である。OpenAIは2026年中の上場を視野に入れており、Anthropicも投資家からの収益性向上圧力に直面している。基盤モデルの値上げは、研究開発費の回収と収益構造の改善を同時に進める手段として位置づけられている。市場関係者の間では、この価格トレンドがIPOサイクルを通じて継続するとの見方が支配的だ。

AIモデルの高性能化が進むほど、推論に必要な計算資源は指数関数的に増加する。開発各社は新世代モデルを投入するたびに、そのコストを顧客へ転嫁せざるを得ない構造に陥っている。今後、モデルバージョン更新のたびに値上げが常態化すれば、AIサービスを自社製品に組み込む企業の調達判断に重大な影響が及ぶ。

日本企業の調達戦略に迫られる再考

この値上げ局面は、国内のAI導入企業に直接的な打撃となる。大手金融機関や製造業では、社内文書検索やカスタマーサポート自動化にGPTシリーズを組み込む事例が増えている。従来、月額数万ドル程度で運用できていたシステムが、モデル更新後のトークン単価上昇によって一気にコスト超過に陥るリスクが生じている。

対策として、入力トークンを圧縮する前処理パイプラインの構築や、タスク複雑度に応じて旧モデルと使い分けるマルチモデル戦略の採用が進み始めた。国内SIerの一部は、GPT-5.4からGPT-5.5への移行を前提としたコスト試算ツールを顧客に提供し始めている。AI投資のROIを再定義する局面に入ったことは間違いない。