MIT、AIをよりスマートにするための研究を実施

MITチーム、AIモデルに未知の知識を学習させる

人工知能(AI)の活用は急速に拡大しており、私たちの日常生活や、医療、通信、エネルギーといった重要な産業とますます密接に関わるようになっています。しかし、大きな力には大きな責任が伴います。AIシステムは時に誤りを犯したり、不確かな回答を提示したりすることがあり、それが重大な結果を招く可能性があります。

なぜこれが重要なのか?
高度なAIモデルであっても、「ハルシネーション(幻覚)」と呼ばれる、誤った回答や根拠のない回答を生成することがあります。医療診断や自動運転など、意思決定の重みが大きい分野では、これは壊滅的な結果をもたらしかねません。Themis AIが開発した「Capsa」は、不確実性の定量化(Uncertainty Quantification)を適用するプラットフォームであり、AIの出力の不確実性を詳細かつ信頼性の高い方法で測定・定量化します。

 仕組みは?
モデルに不確実性を認識させることで、出力にリスクや信頼性のラベルを付与できるようになります。例えば、自動運転車が状況判断に確信が持てない場合に人間による介入を促すといったことが可能です。これは安全性を高めるだけでなく、AIシステムに対するユーザーの信頼向上にもつながります。

技術的な実装例
  • PyTorchとの統合において、モデルのラップ(Wrap)は以下のように行われます: capsa_torch.wrapper() 出力には予測結果とリスクの両方が含まれます:
Python example met capsa
TensorFlowモデルの場合、Capsaはデコレータを使用して動作します:
TensorFlow
企業とユーザーへの影響
NetCareとそのクライアントにとって、この技術は大きな前進を意味します。私たちは、インテリジェントであるだけでなく、安全で予測可能性が高く、ハルシネーションのリスクが低減されたAIアプリケーションを提供できます。これにより、組織はより根拠に基づいた意思決定を行い、ミッションクリティカルな業務へのAI導入に伴うリスクを軽減することが可能になります。

結論
MITは チーム AIの未来は単に賢くなることだけでなく、より安全かつ公平に機能することにあると示しています。NetCareでは、AIは自身の限界について透明性がある場合にのみ、真の価値を発揮すると考えています。Capsaのような高度な不確実性定量化ツールを活用することで、このビジョンを実践に移すことができます。

Gerard

GerardはAIコンサルタント兼マネージャーとして活動しています。大手組織での豊富な経験により、問題を非常に迅速に解明し、解決に向けて取り組むことができます。経済学のバックグラウンドと組み合わせることで、ビジネスにとって責任ある選択を提供します。