MIT team at work

MITチームがAIモデルに未知の知識を学習させる。

人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、ヘルスケア、通信、エネルギーといった重要な産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確実な答えを出したりすることがあり、それが大きな影響を及ぼす可能性があります。

MITのCSAIL研究室のダニエラ・ラス教授が共同設立し、率いるThemis AIは、画期的なソリューションを提供しています。彼らの技術は、AIモデルが「知らないことを知る」ことを可能にします。これは、AIシステムが自身の予測に不確実性があることを自ら示すことができ、損害が発生する前にエラーを防ぐことができることを意味します。

なぜこれが重要なのでしょうか?
多くのAIモデル、たとえ高度なものであっても、時にはいわゆる「幻覚」を示すことがあります。つまり、誤った、または根拠のない答えを出すことがあります。医療診断や自動運転など、意思決定が非常に重要となる分野では、これは壊滅的な結果をもたらす可能性があります。Themis AIは、不確実性定量化を適用するプラットフォームであるCapsaを開発しました。これは、AI出力の不確実性を詳細かつ信頼性の高い方法で測定し、定量化します。

 どのように機能するのでしょうか?
モデルに不確実性認識を教え込むことで、リスクまたは信頼性のラベルを付けて出力を提供できるようになります。例えば、自動運転車は、状況について確信が持てないことを示し、人間の介入を促すことができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も向上します。

技術実装の例

  • PyTorchとの統合では、capsa_torch.wrapper()を介してモデルをラップし、出力は予測とリスクの両方で構成されます。

Python example met capsa

TensorFlowモデルの場合、Capsaはデコレータで動作します。

tensorflow

企業とユーザーへの影響
NetCareとその顧客にとって、この技術は大きな進歩を意味します。私たちは、インテリジェントであるだけでなく、安全で予測可能であり、幻覚の可能性が低いAIアプリケーションを提供できます。これは、組織がより情報に基づいた意思決定を行い、ミッションクリティカルなアプリケーションにAIを導入する際のリスクを軽減するのに役立ちます。

結論
MITのチームは、AIの未来が単に賢くなることだけでなく、より安全で公正に機能することにかかっていることを示しています。NetCareでは、AIが自身の限界について透明である場合にのみ、真に価値あるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、そのビジョンを実践することができます。

Gerard

Gerard

GerardはAIコンサルタント兼マネージャーとして活躍しています。大手企業での豊富な経験を活かし、問題を迅速に解明し、解決策へと導きます。経済学のバックグラウンドも持ち合わせているため、ビジネスにおいて最適な意思決定をサポートいたします。

AIR (Artificial Intelligence Robot)