CerebrasのIPO調達額最大48億ドルへ増額 AI半導体への需要追い風

AI半導体とデータセンターを手がける米Cerebras Systemsは、新規株式公開で最大48億ドルの資金調達を目指し規模を上方修正した。独自開発した巨大チップへの需要拡大が投資家の関心を引き、時価総額は最大で判明分の230億ドル規模に達する見通しである。

機関投資家の需要が示す大型案件への強気サイン

Cerebrasは公開株式数と仮条件価格帯の両方を引き上げた。関係者によると、現在は1株あたり27ドルから30ドルのレンジで2250万株を発行する計画だ。従来のレンジは22ドルから24ドル、発行株数は1900万株だったため、調達額は約40%増加する計算になる。

増資規模が拡大した背景には、エヌビディアへの集中リスクを分散したい投資家層の明確な思惑がある。AIの学習と推論を高速化するCerebrasの半導体は、処理能力の高さに加えて消費電力あたりの性能効率を武器に、クラウド事業者や政府機関からの引き合いを強めている。複数の機関投資家が公開価格帯での大口購入を確約したことで、主幹事のシティグループとバークレイズは需要の厚みを確信した。

この大型案件が実現すれば、AIインフラ分野では上半期最大級のIPOとなる。米国のテクノロジー新規公開市場は2024年後半から緩やかに回復しつつあり、収益基盤の明確な企業への選別姿勢が強まるなかで、Cerebrasの価格決定は今後のソフトランディング指標としても注目される。

エヌビディア包囲網を狙う巨大チップ戦略

Cerebrasの最大の差別化要因は、単一のシリコンウェハーから切り出す超大型プロセッサ「WSE-3」だ。4兆個のトランジスタを搭載し、エヌビディアの現行主力GPUと比べてコア数を桁違いに増やした設計が特長である。チップサイズが大きいぶん歩留まりリスクを伴うが、独自の冗長回路技術と冷却システムで量産性を確保した。

現在はアラブ首長国連邦のAI企業G42や米国アルゴンヌ国立研究所のスーパーコンピューターに採用され、医薬品開発や気候シミュレーションといった高負荷計算で実績を蓄積する。CEOのアンドリュー・フェルドマン氏は投資家向け説明会で「汎用GPUでは到達できないメモリ帯域幅こそ、大規模言語モデルの進化に不可欠だ」と強調した。

IPO調達資金の使途として、台湾TSMCとの協業による次世代5ナノメートルプロセスの研究開発と、北米・中東でのデータセンターネットワーク増強を優先する方針である。半導体製造装置のリードタイム長期化を見越し、長期契約の前払い資金としても活用される見通しだ。

売上高急拡大も高まる顧客依存リスク

米証券取引委員会に提出された目論見書によると、Cerebrasの2024年度売上高は前年比3.5倍の2億4700万ドルに達した。純損失は継続するものの、営業キャッシュフローの赤字幅は前年から縮小傾向にある。粗利益率はハードウェア販売の比率増加で40%台半ばへ改善した。

最大のリスク要因としてアナリストが指摘するのが、特定顧客への極端な収益依存だ。開示資料では上位2社からの売上が全体の8割超を占めており、なかでもG42グループ向けの比率が突出する。中東地域の地政学的緊張や米国の輸出管理規制が厳格化された場合、業績が急変する恐れがある。これに対し同社は、欧州とアジアの通信事業者やヘルスケア企業との概念実証を加速させ、2026年までに顧客構成を多様化させる計画を示した。

日本企業が直面するAIインフラ調達の示唆

Cerebrasの大型IPOは、日本のAI開発企業とデータセンター事業者にとってインフラ調達の選択肢が広がる可能性を示す。現在、国内クラウド事業者の多くはエヌビディア製GPUの調達難と価格高騰に直面しており、経済産業省の「AIインフラ整備計画」でもサプライチェーンの多元化が政策課題に据えられている。

NECやさくらインターネットなど国内AIプラットフォーマー各社は、次世代計算基盤の評価段階でCerebrasのチップ性能に関心を示してきた経緯がある。上場後の資金力と信用力向上が日本市場への本格参入を後押しすれば、官民の研究プロジェクトや大規模言語モデル開発におけるインフラ選定の力学が変わり得る。半導体商社やシステムインテグレーターは、保守・運用ノウハウの内製化に向けた技術提携の可能性を模索し始めている。

上場後の成長戦略を占う最終需要家への浸透力

最終的なIPO条件は数日後に確定する見通しだが、市場では調達後も株価の安定推移を疑問視する声が混在する。強気派はAI特需がハードウェアからデータセンター運営へ波及するストーリーに注目し、弱気派はエヌビディアのソフトウェア生態系「CUDA」に対抗できる開発者基盤の乏しさを懸念材料に挙げる。

Cerebrasは並行してオープンソースの大規模言語モデルを自社クラウド上で無償公開し、AI分野の研究者層に採用を促す作戦をとる。半導体性能だけでなく、使いやすさとコミュニティ形成をどれだけ早く確立できるかが、公開後の評価を左右する。AIインフラ市場がハードウェア単体の勝負からプラットフォーム競争へ移行する分岐点に、同社が明確な足場を築けるかどうかは依然として発展途上の物語である。