DeepSeek-V4、100万トークン対応でエージェント実用化へ
中国のAI企業DeepSeek(ディープシーク)が2026年4月24日、大規模言語モデル「DeepSeek-V4」をリリースした。同モデルは100万トークンのコンテキストウィンドウを備え、長期間実行されるエージェントワークロードにおける課題解決に焦点を当てている。従来のモデルでは、コンテキスト予算の超過やGPUメモリ不足により処理が停止する問題が顕在化していたが、V4はこれらの障害を克服し、エージェント実装における新たな標準となる可能性を秘めている。
V4には「DeepSeek-V4-Pro」と「DeepSeek-V4-Flash」の2つのチェックポイントが存在する。Pro版は合計パラメータ1.6T、アクティブパラメータ49Bであり、Flash版は合計284B、アクティブ13Bとなっている。特に効率性において画期的な進歩を遂げており、100万トークンの処理において、Pro版は前世代のV3.2と比較し単一トークン推論のFLOPを27%、KVキャッシュメモリ使用量を10%削減している。Flash版ではさらにFLOPを10%、KVキャッシュを7%削減し、既存アーキテクチャと比較してキャッシュサイズを約2%に抑えることで、大規模コンテキスト処理のデプロイを容易にしている。
この効率化は、ハイブリッドアテンション機構である「圧縮されたスパースアテンション(CSA)」と「HCA」の採用によるものである。CSAはシーケンス次元に沿ってKVエントリを4倍に圧縮し、「ライトニングインデクサー」がクエリごとに上位k個の圧縮ブロックを選択する仕組みだ。これにより、長いツール使用軌跡や多段階のブラウザセッションなど、膨大な履歴を伴うタスクにおいても、計算コストとメモリ負荷を劇的に低減し、安定した推論を可能にしている。
日本国内のAI開発者や企業にとって、V4の登場はコスト効率の高いエージェント構築の選択肢を広げる意味で重要である。特に、SWEベンチマークのような複雑なタスクや、数百のコマンドを含むターミナルセッションなど、長時間の対話が必要な業務自動化において、従来よりも少ないリソースで高精度な処理が期待できる。オープンモデルとして提供されるため、国内のスタートアップや研究機関も容易にアクセスでき、AIエージェントの実用化スピードを加速させる要因となるだろう。
今後は、V4が示すアーキテクチャ変更やトレーニング後の決定が、コミュニティ全体の標準となるか注目される。ベンチマーク数値が最先端(SOTA)ではないものの、エージェントタスクにおける実用性と効率性のバランスは優れており、長文コンテキスト処理の新たな道筋を示している。DeepSeekのこの試みは、大規模言語モデルの進化において、単なる性能競争から「実装の現実性」へと焦点が移行しつつあることを象徴しており、今後のAIインフラの設計思想に大きな影響を与えると考えられる。