MITがAIをより賢くするための研究を実施

MITチームがAIモデルにまだ知らなかったことを教える

人工知能(AI)の応用は急速に成長しており、私たちの日常生活やヘルスケア、通信、エネルギーといった重要産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時として誤りを犯したり、不確実な回答をしたりすることがあり、それが重大な結果を招く可能性があります。

CSAILラボのダニエラ・ルス教授が共同設立し率いるMITのThemis AIは、画期的なソリューションを提供しています。彼らの技術は、AIモデルが「自分が知らないことを知る」ことを可能にします。これは、AIシステムが予測に対して不確実な場合に自ら示すことができ、損害が発生する前に誤りを防ぐことができるという意味です。

なぜこれがそれほど重要なのでしょうか?
高度なものであっても、多くのAIモデルは、誤った、あるいは根拠のない回答を出す、いわゆる「ハルシネーション」を示すことがあります。医療診断や自動運転など、決定が重大な影響を及ぼす分野では、これは壊滅的な結果をもたらす可能性があります。Themis AIは、不確実性定量化を適用するプラットフォームであるCapsaを開発しました。これは、AIの出力の不確実性を詳細かつ信頼できる方法で測定し、定量化します。

 仕組みは?
モデルに不確実性認識を組み込むことで、出力にリスクまたは信頼性のラベルを付けることができます。例えば、自動運転車は状況について確信が持てないことを示し、人間の介入を起動させることができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼性も向上します。

技術的実装の例

  • PyTorchとの統合では、モデルのラッパーは次のようになります capsa_torch.wrapper() 出力は予測とリスクの両方で構成されます:

Python example met capsa

TensorFlowモデルの場合、Capsaはデコレータを使用して動作します。

テンソルフロー

企業とユーザーへの影響
NetCareとその顧客にとって、この技術は大きな飛躍を意味します。私たちは、インテリジェントであるだけでなく、安全で予測可能性が高く、ハルシネーション(幻覚)の可能性が低いAIアプリケーションを提供できます。これは、組織がより十分な情報に基づいた意思決定を行い、ビジネスに不可欠なアプリケーションにAIを導入する際のリスクを低減するのに役立ちます。

結論
MITは チーム AIの未来は、単に賢くなることだけでなく、より安全で公正に機能することにかかっていることを示しています。NetCareでは、AIが自身の限界について透明性を持つことではじめて真に価値あるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用すると、そのビジョンを実践に移すことができます。

ヘラルド

ヘラルドはAIコンサルタント兼マネージャーとして活動しています。大手組織での豊富な経験により、彼は問題を非常に迅速に解明し、解決策に向けて取り組むことができます。経済的なバックグラウンドと組み合わせることで、ビジネスとして責任ある選択を確実なものにします。