MIT team at work

MITチームがAIモデルにまだ知らなかったことを教える

人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、医療、通信、エネルギーといった重要な産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確実な回答をしたりすることがあり、それが大きな影響を与える可能性があります。

MITのCSAIL研究所のダニエラ・ラス教授が共同設立し率いるThemis AIは、画期的なソリューションを提供しています。彼らの技術により、AIモデルは「自分が何を知らないかを知る」ことができるようになります。これは、AIシステムが自身の予測について不確実である場合に、自らそれを表明できることを意味し、損害を引き起こす前にエラーを防ぐことができます。

なぜこれがそれほど重要なのでしょうか?
多くのAIモデル、たとえ高度なものであっても、時にいわゆる「幻覚」を示すことがあります。つまり、誤った、あるいは根拠のない回答を生成するのです。医療診断や自動運転など、意思決定が非常に重要となる分野では、これは壊滅的な結果をもたらす可能性があります。Themis AIは、不確実性定量化を適用するプラットフォームであるCapsaを開発しました。これは、AI出力の不確実性を詳細かつ信頼性の高い方法で測定し、定量化します。

 どのように機能しますか?
モデルに不確実性認識を教え込むことで、出力にリスクまたは信頼性のラベルを付けることができます。たとえば、自動運転車は、状況について確信が持てないことを示し、人間の介入をアクティブにすることができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も向上します。

技術的な実装例

  • PyTorchとの統合では、モデルのラッピングはcapsa_torch.wrapper()を介して行われ、出力は予測とリスクの両方で構成されます。

Python example met capsa

TensorFlowモデルの場合、Capsaはデコレーターで機能します。

tensorflow

企業とユーザーへの影響
NetCareとその顧客にとって、この技術は大きな進歩を意味します。私たちは、インテリジェントであるだけでなく、安全で、幻覚の可能性が低く、より予測可能なAIアプリケーションを提供できます。これは、組織がより根拠に基づいた意思決定を行い、ビジネスクリティカルなアプリケーションにAIを導入する際のリスクを軽減するのに役立ちます。

結論
MITのチームは、AIの未来は単に賢くなることだけでなく、特に安全で公平に機能することにかかっていることを示しています。NetCareでは、AIが自身の限界について透明である場合にのみ、真に価値があるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、そのビジョンを実践に移すことができます。

Gerard

Gerard

ジェラルドはAIコンサルタント兼マネージャーとして活動しています。大手組織での豊富な経験を持ち、問題を非常に迅速に解明し、解決に向けて取り組むことができます。経済的な背景と組み合わせることで、ビジネス上の責任ある選択を実現しています。

AIR (Artificial Intelligence Robot)