MIT team at work

MITチームはAIモデルにまだ知らなかったことを教える。

人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、医療、通信、エネルギーといった重要な産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確実な答えを出したりすることがあり、それが大きな結果を招く可能性があります。

MITのThemis AIは、CSAILラボのダニエラ・ラス教授が共同設立し、率いる画期的なソリューションを提供しています。彼らの技術は、AIモデルが「知らないことを知る」ことを可能にします。これは、AIシステムが予測について不確実な場合に、自らそれを表明できることを意味し、損害を引き起こす前にエラーを防ぐことができます。

なぜこれが重要なのでしょうか?
多くのAIモデルは、高度なものであっても、いわゆる「幻覚」を示すことがあります。つまり、誤った、または根拠のない答えを出すことがあります。医療診断や自動運転など、意思決定が非常に重要となる分野では、これは壊滅的な結果をもたらす可能性があります。Themis AIは、Capsaというプラットフォームを開発しました。これは、不確実性定量化を適用し、AI出力の不確実性を詳細かつ信頼性の高い方法で測定・定量化します。

 どのように機能しますか?
モデルに不確実性認識を教えることで、モデルは出力にリスクまたは信頼性のラベルを付けることができます。例えば、自動運転車は、状況について確信が持てないことを示し、人間の介入を促すことができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も向上します。

技術実装の例

  • PyTorchとの統合では、モデルのラッピングはcapsa_torch.wrapper()を介して行われ、出力は予測とリスクの両方で構成されます。

Python example met capsa

TensorFlowモデルの場合、Capsaはデコレータで動作します。

tensorflow

企業とユーザーへの影響
NetCareとその顧客にとって、この技術は大きな進歩を意味します。私たちは、インテリジェントであるだけでなく、安全で予測可能性が高く、幻覚の可能性が低いAIアプリケーションを提供できます。これは、組織がより情報に基づいた意思決定を行い、ビジネスに不可欠なアプリケーションにAIを導入する際のリスクを軽減するのに役立ちます。

結論
MITのチームは、AIの未来が単に賢くなることだけでなく、より安全で公平に機能することにかかっていることを示しています。NetCareでは、AIがその限界について透明である場合にのみ、真に価値のあるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、お客様もそのビジョンを実践することができます。

Gerard

Gerard

ジェラールはAIコンサルタント兼マネージャーとして活躍しています。大手組織での豊富な経験により、彼は非常に迅速に問題を解明し、解決策に取り組むことができます。経済学のバックグラウンドと相まって、彼はビジネス上責任ある選択を保証します。

AIR (Artificial Intelligence Robot)