MITはAIをより賢くするための研究を行っています

MITチームがAIモデルにまだ知らないことを学習させる。

人工知能(AI)の活用は急速に拡大し、私たちの日常生活や医療、通信、エネルギーといったハイリスク産業とますます密接に結びついています。しかし、大きな力には大きな責任が伴います。AIシステムは時に誤りを犯したり、不確かな回答を提供し、重大な影響を及ぼすことがあります。

MITのThemis AIは、CSAILラボのダニエラ・ルス教授が共同設立・指導しています。この画期的なソリューションは、AIモデルが『自分が何を知らないかを知る』ことを可能にします。つまり、AIシステムは予測に対する不確実性を自ら示すことができ、損害を与える前にエラーを防止できます。

なぜこれが重要なのでしょうか?
多くのAIモデル、特に高度なものでも時に「ハリュシネーション」と呼ばれる現象を示し、誤ったまたは根拠のない回答を出すことがあります。医療診断や自律走行など、意思決定が重大な影響を持つ分野では、これが壊滅的な結果を招く可能性があります。Themis AIはCapsaというプラットフォームを開発しました。これは不確実性定量化を適用し、AI出力の不確実性を詳細かつ信頼性の高い方法で測定・定量化します。

 仕組みはどうなっていますか?
モデルに不確実性認識を付与することで、出力にリスクや信頼性のラベルを付けることができます。例えば、自動運転車はある状況に対して不確かであることを示し、人間の介入を促すことができます。これにより安全性が向上するだけでなく、ユーザーのAIシステムへの信頼も高まります。

技術実装の例

  • PyTorchとの統合時には、モデルをラップすることで capsa_torch.wrapper() 出力は予測とリスクの両方で構成されます:

Python example met capsa

TensorFlowモデルでは、Capsaはデコレータとして機能します:

TensorFlow

企業とユーザーへのインパクト
NetCareとその顧客にとって、この技術は大きな前進を意味します。私たちは、知的であるだけでなく、安全で予測可能性が高く、ハリュシネーションのリスクが低減されたAIソリューションを提供できます。これにより、組織はより根拠のある意思決定を行い、業務クリティカルなアプリケーションへのAI導入時のリスクを削減できます。

結論
MIT チーム AIの未来は単に賢くなることだけでなく、より安全で公平に機能することが重要であることを示しています。NetCareでは、AIが自らの限界を透明に示すときに初めて真に価値があると考えています。Capsaのような高度な不確実性定量化ツールを用いれば、このビジョンを実際に実現できます。

ジェラード

GerardはAIコンサルタント兼マネージャーとして活動しています。大手組織での豊富な経験により、問題を非常に迅速に解明し、解決に向けて取り組むことができます。経済的なバックグラウンドと組み合わせることで、ビジネス的に責任ある選択を行います。