AIの開放性が守る未来 ウイルス総研がオープンソースの重要性を強調
サイバーセキュリティの未来は人工知能(AI)の「開放性」が握っている。ウイルス対策ソフトで知られる米ウイルス総研(VirusTotal)の幹部が、オープンソースのAIモデルこそが悪意ある攻撃から社会を守る要になるとの見解を示した。技術の囲い込みがかえって防御を弱体化させるという逆説が、いま業界の核心的な議論となっている。
ウイルス総研が説くAI開放戦略の全容
「われわれは、AIのオープン性が単なる理想論ではなく、実用的なセキュリティ基盤だと確信している」。ウイルス総研の戦略責任者は、スペイン・マラガで開催された国際会議でこう断言した。同社は15年以上にわたり、世界中のセキュリティベンダー約200社とファイル分析情報を共有するプラットフォームを運営している。
この知見から得た教訓は明確だ。あるベンダーが新型マルウェアを検知した瞬間、その情報が直ちに共有される仕組みがなければ、他の防御網は突破されてしまう。AIの世界でも同じ理屈が成り立つ。特定企業が高性能なAIを独占すれば、その穴を突く攻撃手法が出現した際、対応が致命的に遅れるリスクがあるのだ。
同社が提唱するのは、誰もがモデルを検証し、改良できる「透明性」の確保である。実際に、大規模言語モデル(LLM)のオープンソース版は、Metaの「Llama」シリーズやMistral AIのモデルなど、商業用のクローズドモデルに匹敵する性能を短期間で獲得しつつある。
オープンモデルが生む防御速度の優位性
セキュリティ業界には「防御側は常にすべての弱点を塞がねばならないが、攻撃側は一つの弱点を突けばよい」という非対称性の格言がある。この不利を覆す唯一の手段が速度、すなわちパッチ適用と検知ルールの迅速な展開だ。
ウイルス総研によると、オープンソースAIが主流になれば、セキュリティ研究者コミュニティ全体が同時に防御モデルを更新できる。これは従来の単独ベンダー依存型の開発サイクルを根本から覆す。同社の内部試算では、脆弱性情報の共有から検知シグネチャ配布までの時間を、クローズドな開発体制と比較して最大60%短縮できる可能性があるという。
攻撃者も同じオープンモデルを悪用するのではないか、という当然の疑問がある。これに対し同社は、攻撃ツールはすでにダークウェブ上で流通しており、むしろ防御側のAIが劣っていれば一方的に不利になると反論する。防御側こそ最も高性能で最新のモデルを共有し、集団知で対抗する必要があるという論理だ。
脅威インテリジェンスの共有限界とAIの融合
これまでの脅威インテリジェンス共有は、主にハッシュ値やIPアドレスといった「痕跡情報」に限られていた。しかし、AIはソースコードや通信パターンの微妙な類似性から未知の攻撃を推論できる。
ウイルス総研は、グーグル傘下のリソースを活用し、オープンソースモデルを用いた振る舞い検知エンジンの開発を進めている。このエンジンは、従来のパターンファイルに依存せず、バイナリの構造的特徴をベクトル化して判断する。重要なのは、このモデルが特定のクラウドにロックインされず、エッジ環境でも動作する点だ。
日本企業が強みを持つ組み込み機器やIoT機器のセキュリティ分野では、この軽量なオープンモデルが特に有効となる。製造業の生産ラインや自動車の車載システムなど、常時クラウド接続が難しい環境でも、ローカルで高精度の防御が可能になるからだ。
日本市場が直面するガラパゴスリスク
国内セキュリティ市場には、ガラパゴス化という慢性的な課題がある。独立行政法人情報処理推進機構(IPA)の調査でも、国内企業の約7割が「脅威情報の収集を自社あるいは国内ベンダーのみに依存している」と回答している。
AIセキュリティの領域で国産のクローズドモデルに固執すれば、グローバルに展開されるオープンソースの防御網から孤立する危険がある。特に金融庁が推進する「サイバーセキュリティ戦略」との整合性が問われる中、日本の大手金融機関は海外のオープンな脅威分析フレームワークを導入し始めている。
三井住友銀行やNTTデータグループなどは、欧州のオープンソースセキュリティプロジェクトへの参加を拡大している。この動きは、国産技術保護と国際共同戦線のバランスをいかに取るかという、日本の産業政策にも一石を投じるものだ。
規制と開放性 相反しないガバナンス設計
AIの開放を巡っては、欧州連合(EU)のAI規制法や米国の大統領令など、安全規制との摩擦が懸念されている。ウイルス総研は、オープン性と安全性はトレードオフではないと主張する。むしろ、ソースコードが公開されているからこそ、第三者機関による厳格な監査とレッドチーム演習が可能になる。
実際に、仏Mistral AIや米Metaが公開するモデルには、有害な出力を制限する「ガードレール」が初期状態で組み込まれていることが多い。ウイルス総研は、業界団体と協力し、オープンモデルのセキュリティ評価基準を国際標準化する動きを主導している。この枠組みは2025年末までのドラフト策定を目標としており、実装されればオープンソースAIの企業導入が一気に加速する可能性がある。
クローズドなAIは一見すると管理が容易に見えるが、ベンダーが攻撃を受けた際のリスク集中は避けられない。分散と透明性こそが、国家支援型の高度なサイバー攻撃に対抗するための、最も現実的なアーキテクチャだといえる。ウイルス総研の提言は、防御技術の民主化がビジネスと安全保障の両面で不可避な潮流であることを、改めて業界に突きつけた。