MITがAIをより賢くするための研究を実施

MITチームがAIモデルに未知の知識を学習させる

人工知能(AI)の応用は急速に拡大しており、ヘルスケア、通信、エネルギーといった重要な産業や私たちの日常生活にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは誤りを犯したり、重大な結果をもたらす可能性のある不確実な回答を出すことがあります。

MITのCSAILラボのダニエラ・ルス教授が共同設立・指導するThemis AIは、画期的なソリューションを提供しています。彼らの技術により、AIモデルは「自分が知らないことを知る」ことが可能になります。これは、AIシステムが予測に確信が持てない場合に自ら示すことができ、損害が発生する前に誤りを未然に防ぐことを意味します。

なぜこれがそれほど重要なのでしょうか?
高度なAIモデルであっても、誤った、あるいは根拠のない回答を出す、いわゆる「ハルシネーション」を示すことがあります。医療診断や自動運転など、意思決定が重大な分野では、これは壊滅的な結果を招く可能性があります。Themis AIは、AIの出力の不確実性を詳細かつ信頼性の高い方法で測定・定量化する「不確実性定量化」を適用するプラットフォーム「Capsa」を開発しました。

 仕組みは?
モデルに不確実性認識を組み込むことで、AIの出力にリスクや信頼性のラベルを付与できます。例えば、自動運転車が状況に確信が持てない場合に人間の介入を促す、といった具合です。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼性も向上します。

技術的な実装例

  • PyTorchとの統合では、モデルのラッパーは次のようになります capsa_torch.wrapper() 出力は予測とリスクの両方で構成されます。

Python example met capsa

TensorFlowモデルの場合、Capsaはデコレータを使用します:

TensorFlow

企業とユーザーへの影響
NetCareとそのクライアントにとって、この技術は大きな前進を意味します。私たちは、インテリジェントであるだけでなく、安全で予測可能性が高く、ハルシネーションのリスクが少ないAIアプリケーションを提供できます。これにより、組織はより十分な情報に基づいた意思決定を行い、基幹業務アプリケーションにAIを導入する際のリスクを低減できます。

結論
MITは チーム AIの未来は、単に賢くなることだけでなく、より安全かつ公正に機能することにかかっていることを示しています。NetCareでは、AIが自らの限界について透明性を持つことではじめて真の価値が生まれると信じています。Capsaのような高度な不確実性定量化ツールを使用すれば、貴社もそのビジョンを実践に移すことができます。

ヘラール

ジェラールはAIコンサルタント兼マネージャーとして活躍しています。大手組織での豊富な経験により、彼は問題を非常に迅速に解明し、解決策へと導くことができます。経済学のバックグラウンドと相まって、ビジネスとして責任ある選択を確実にもたらします。

AIR(人工知能ロボット)