人工知能(AI)の活用は急速に拡大し、私たちの日常生活や医療、通信、エネルギーといったハイリスク産業とますます密接に結びついています。しかし、大きな力には大きな責任が伴います。AIシステムは時に誤りを犯したり、不確かな回答を提供し、重大な影響を及ぼすことがあります。
MITのThemis AIは、CSAILラボのダニエラ・ルス教授が共同設立・指導しています。この画期的なソリューションは、AIモデルが『自分が何を知らないかを知る』ことを可能にします。つまり、AIシステムは予測に対する不確実性を自ら示すことができ、損害を与える前にエラーを防止できます。
なぜこれが重要なのでしょうか?
多くのAIモデル、特に高度なものでも時に「ハリュシネーション」と呼ばれる現象を示し、誤ったまたは根拠のない回答を出すことがあります。医療診断や自律走行など、意思決定が重大な影響を持つ分野では、これが壊滅的な結果を招く可能性があります。Themis AIはCapsaというプラットフォームを開発しました。これは不確実性定量化を適用し、AI出力の不確実性を詳細かつ信頼性の高い方法で測定・定量化します。
仕組みはどうなっていますか?
モデルに不確実性認識を付与することで、出力にリスクや信頼性のラベルを付けることができます。例えば、自動運転車はある状況に対して不確かであることを示し、人間の介入を促すことができます。これにより安全性が向上するだけでなく、ユーザーのAIシステムへの信頼も高まります。
capsa_torch.wrapper() 出力は予測とリスクの両方で構成されます:

結論
MIT チーム AIの未来は単に賢くなることだけでなく、より安全で公平に機能することが重要であることを示しています。NetCareでは、AIが自らの限界を透明に示すときに初めて真に価値があると考えています。Capsaのような高度な不確実性定量化ツールを用いれば、このビジョンを実際に実現できます。