AIが評価する撮像システム、「情報量」で性能を数値化

米カリフォルニア大学バークレー校の研究チームは、撮像システムの性能を「相互情報量」と呼ばれる単一指標で直接評価・最適化する新たな枠組みを開発した。2025年の国際会議NeurIPSで発表されたこの手法は、画像の見た目ではなく測定データに含まれる情報の質に着目し、従来の解像度や信号対雑音比といった複合指標を統一的に扱える点が画期的である。

■ 何が起きたのか

研究チームが提案したのは、光学系とノイズモデルのみから相互情報量を推定する計算手法だ。相互情報量とは、測定値が対象物に関する不確実性をどれだけ減らせるかをビット単位で示す情報理論の概念である。同論文によれば、この推定器は実際の対象物のデータなしに、計測データとノイズの統計モデルだけで情報量を算出できる。検証では、顕微鏡・天体撮影・レンズレスイメージング・深度推定の4領域で、この指標がタスク性能と強く相関することを実証した。さらに、情報量を最大化する光学設計を勾配法で探索した結果、ニューラルネットワークを用いた従来のエンドツーエンド最適化と同等の性能を達成しつつ、メモリ使用量と計算時間を大幅に削減できたという。

■ なぜ今重要なのか

自動運転車のカメラ・LiDAR処理、MRIの周波数空間計測、スマートフォンのRAW現像など、現代の撮像システムの多くは人間が直接見ることのない生データをAIが解釈する形態に移行している。にもかかわらず、システム評価は解像度やSN比といった「人間の目で見た画質」に依存し続けてきた。このズレが、ハードウェア開発とアルゴリズム開発の分断を生み、全体最適を困難にしていた。研究チームの手法は、測定データに含まれる情報量という普遍的な尺度を提供することで、ハードウェア単体での性能比較と設計最適化を可能にする。

■ 背景と競合状況

撮像系の最適化では近年、光学的符号化と深層学習デコーダを一体設計するエンドツーエンド手法が主流だった。米プリンストン大やMITの研究グループも回折光学素子とニューラルネットを組み合わせたイメージングで成果を上げている。しかし、これらの手法は特定タスク向けのデコーダ設計と大規模な共訓練が必須で、計算資源の負荷が大きい。今回の情報量ベースの手法は、デコーダ設計を評価から切り離せるため、ハードウェア開発の独立性が高まる。産業応用では日本の光学機器メーカーにも影響が及ぶ可能性がある。特に顕微鏡や医療用イメージングの設計工程で、反復的な試作評価の回数を削減できる利点が期待される。

■ 投資家・企業戦略視点での考察

企業戦略の観点では、この手法は製品開発サイクルの短縮と計算資源コストの低減に寄与する。エッジAIチップを手がける半導体企業にとっては、タスク特化型の光学前処理を設計する際のシミュレーション基盤として活用できる。また、医療機器メーカーが新たな撮像モダリティを開発する際、臨床評価を待たずに情報理論的な性能保証を得られる点も事業リスクの低減につながる。ベンチャーキャピタルによるディープテック投資の判断材料としても、客観的かつタスク非依存な評価指標の存在は重要度を増すだろう。

■ 今後の展望

研究チームは今後、より複雑な非線形光学系や量子イメージングへの拡張を検討している。具体的には、単一光子検出器を用いた微弱光計測や、散乱媒質を通したイメージングでの情報量推定精度の検証が次のステップとなる。実用面では、光学設計ソフトウェアへの組み込みが進めば、2027年頃には産業用検査装置の光学系設計に情報量最適化が標準搭載される可能性がある。日本企業にとっては、半導体露光装置の波面制御や内視鏡の超小型光学系といった高精度分野での設計効率化が具体的な適用先として見込まれる。