人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、医療、通信、エネルギーといった重要な産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確実な回答をしたりすることがあり、それが大きな影響を与える可能性があります。
MITのCSAIL研究所のダニエラ・ラス教授が共同設立し率いるThemis AIは、画期的なソリューションを提供しています。彼らの技術により、AIモデルは「自分が何を知らないかを知る」ことができるようになります。これは、AIシステムが自身の予測について不確実である場合に、自らそれを表明できることを意味し、損害を引き起こす前にエラーを防ぐことができます。
なぜこれがそれほど重要なのでしょうか?
多くのAIモデル、たとえ高度なものであっても、時にいわゆる「幻覚」を示すことがあります。つまり、誤った、あるいは根拠のない回答を生成するのです。医療診断や自動運転など、意思決定が非常に重要となる分野では、これは壊滅的な結果をもたらす可能性があります。Themis AIは、不確実性定量化を適用するプラットフォームであるCapsaを開発しました。これは、AI出力の不確実性を詳細かつ信頼性の高い方法で測定し、定量化します。
どのように機能しますか?
モデルに不確実性認識を教え込むことで、出力にリスクまたは信頼性のラベルを付けることができます。たとえば、自動運転車は、状況について確信が持てないことを示し、人間の介入をアクティブにすることができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も向上します。
capsa_torch.wrapper()
を介して行われ、出力は予測とリスクの両方で構成されます。
結論
MITのチームは、AIの未来は単に賢くなることだけでなく、特に安全で公平に機能することにかかっていることを示しています。NetCareでは、AIが自身の限界について透明である場合にのみ、真に価値があるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、そのビジョンを実践に移すことができます。