Miroのバグ修正6倍高速化、Amazon Bedrockで担当振り分け精度5倍向上

世界的なビジュアルコラボレーションプラットフォームを提供するMiroは、ソフトウェアバグの担当チーム振り分けに米Amazon Web Servicesの生成AI基盤「Amazon Bedrock」を導入し、修正完了までの所要時間を従来の数日から数時間へと大幅に短縮した。これにより、誤ったチームへの再割り当て件数は6分の1に減少し、解決までの時間は5分の1に圧縮されたと発表した。開発生産性の向上とユーザー体験の改善を両立するこの取り組みは、プロダクト品質を競争力の源泉とするSaaS企業の新たな指標となりつつある。

生成AIが変えるバグ管理の常識

ソフトウェア開発において、発見されたバグを適切な修正担当チームに振り分ける作業は「バグルーティング」と呼ばれ、従来は人間の経験と勘に依存していた。しかし、大規模なプロダクトを複数の開発チームで分担する環境では、この振り分けミスが頻発し、担当チーム間のたらい回しが解決遅延の主要因となっていた。

Miroのエンジニアリング部門によると、同社の開発体制は50以上のチームで構成され、毎月数千件規模のバグ報告が寄せられる。従来のルーティング方式では、報告内容の誤解釈やドメイン知識の不足から約30%のケースで誤ったチームに割り当てられ、修正着手までに数日を要していたという。

この課題に対し、同社はAmazon Bedrock上で動作する大規模言語モデルを用いた自動バグルーティングシステムを構築した。BedrockはAnthropicのClaudeやMetaのLlamaなど複数の高性能モデルをAPI経由で利用できるマネージドサービスであり、Miroは自社のコードベースや過去のバグ修正履歴、チームごとの専門領域データと組み合わせて推論精度を飛躍的に高めた。

6分の1の誤割り当てと5倍速の解決時間

新システムの中核は、バグ報告の内容を自然言語処理で解析し、関連するコードベースのファイルパスや変更履歴と照合する仕組みにある。バグ説明文に含まれる技術的な手がかりやエラーメッセージ、影響を受ける機能領域を抽出し、どの開発チームが最も適切に対応できるかを確率スコア付きで提示する。

Miroが公表した社内指標によると、導入後の誤割り当て率は従来比で6分の1に激減した。同時に、バグ報告から修正完了までの平均所要時間が5分の1に短縮され、これまで数日かかっていたクリティカルな問題への初動が数時間以内に完了するケースが一般化した。同社のプラットフォーム信頼性担当VPは「Bedrockの柔軟なモデル選択とスケーラビリティが、急増するバグ報告にも耐える安定したルーティング基盤を実現した」と述べている。

システムの技術的な要点は、単なるテキスト分類にとどまらず、コードリポジトリのコミットログやプルリクエストの内容、チームごとの過去の修正実績をベクトル化して検索拡張生成の手法で組み合わせた点にある。これにより、新たに報告された未知のバグに対しても、文脈的に近い過去事例から担当チームを推論できるようになった。

モデル選定とコスト最適化の舞台裏

MiroがAmazon Bedrockを採用した背景には、複数の生成AIモデルを単一のAPIで切り替えながら評価できる柔軟性があった。開発初期段階ではAnthropicのClaude 3 SonnetとMetaのLlama 2を比較検証し、ルーティング精度と応答速度のバランスから最適なモデルを選択した。さらに、トラフィック量に応じて自動スケーリングするBedrockの特性により、月末のバグ報告集中時にもレイテンシを一定範囲に抑えられる運用体制を確立した。

コスト面では、ルーティング1件あたりの推論コストを0.02ドル未満に抑え、月間の総ランニングコストは従来の手動ルーティングにかかっていた工数を大幅に下回ったと試算されている。Miroはこの成果を踏まえ、バグ修正後の自動テスト生成やリリースノートの要約作成など、開発ライフサイクル全般への生成AI適用を加速させる方針だ。

日本市場が直面する開発効率化への示唆

今回の事例は、日本国内でソフトウェア開発を手がける企業にとっても示唆に富む。国内の大手SaaS企業やエンタープライズ向けシステム開発の現場では、依然としてチケット管理システム上での手動ルーティングが主流であり、バグのたらい回しによる修正遅延がプロダクト品質の足枷となっているケースが少なくない。

Amazon Bedrockは2023年10月に東京リージョンでの提供を開始しており、日本語対応のClaude 3モデルを用いれば、国内企業でも同様の自動バグルーティングシステムを比較的低コストで構築可能な土壌が整いつつある。Miroの事例は、生成AIが開発プロセスのボトルネックを除去し、ユーザーへの価値提供速度を根本から変えることを示す実践的な先行モデルとして注目される。