OpenAI、GPT-5.5でバイオバグ報奨金実施
米OpenAIは2026年4月23日、次世代AIモデル「GPT-5.5」を対象としたバイオバグ報奨金プログラムを開始すると発表した。これは、AIが危険な生物学的知識を不正に取得する「ユニバーサル ジェイルブレイク」を検出し、安全性を強化するための取り組みである。
プログラムでは、GPT-5.5(Codex Desktop版)に対して、モデレーションを回避し5つの生物学的安全性に関する質問にすべて正解する普遍的なプロンプトの発見を求めている。全問正解した最初の応募者には2万5000ドルの報酬が用意され、部分的な成果に対しても裁量により賞金が支払われる可能性がある。申請は6月22日まで受け付け、テスト期間は4月28日から7月27日まで実施される。
OpenAIは、生物学における高度なAI機能の保護手段を強化する継続的な努力の一環として本プログラムを設けた。AIのレッドチームやセキュリティ、バイオセキュリティの経験を持つ研究者を対象に、信頼できるリストからの招待と新規申請の審査を経て参加者を募る。すべての活動は秘密保持契約(NDA)の下で行われ、発見された脆弱性や調査結果は厳重に管理される。
この動きは、生成AIの進化に伴うバイオセキュリティリスクへの世界的な懸念が高まる中での重要な措置となる。日本でもAI活用が加速する中、海外の主要プラットフォームがどのように安全性を担保し、規制に対応していくかは、国内のAI開発や利用基準に大きな影響を与える可能性がある。
今後、OpenAIはGPT-5.5のシステムカードや地域の安全対策に関する情報も公開する予定である。今回の報奨金プログラムは、単なるセキュリティテストにとどまらず、フロンティアAIの安全性向上に向けた業界標準の形成にも寄与すると見られる。研究者との協力を通じ、AI技術の責任ある開発と普及が進められるかが注目される。