MIT doet onderzoek om AI slimmer te maken

MITチームはAIモデルにこれまで知らなかったことを教えます。

人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や医療、電気通信、エネルギーといった重大な影響を及ぼす産業分野にますます深く組み込まれつつあります。しかし大きな力には大きな責任が伴います:AIシステムは時に誤りを犯したり、不確かな回答を出したりし、それが重大な結果を招くことがあります。

MIT発のThemis AIは、CSAILラボのダニエラ・ルス教授が共同設立・主導する画期的な解決策を提供します。彼らの技術はAIモデルに「自分が知らないことを知る」能力を付与します。つまり、AIシステムが自ら予測に対する不確かさを示すことができ、被害が発生する前に誤りを防げるようになります。

なぜこれが重要なのか?
多くのAIモデル、たとえ高度なものでも、いわゆる「幻覚(hallucination)」を示すことがあります―誤った、あるいは根拠のない回答を返すのです。医療診断や自動運転のように判断の重みが大きい領域では、これが壊滅的な結果を招く可能性があります。Themis AIはCapsaというプラットフォームを開発し、不確実性の定量化(uncertainty quantification)を適用しています:AI出力の不確実性を詳細かつ信頼性の高い方法で測定し、数値化します。

 仕組みは?
モデルに不確実性への認識(uncertainty awareness)を持たせることで、出力にリスクや信頼性のラベルを付与できます。例えば自動運転車はある状況に対して自信がないことを示し、人間の介入を促すことができます。これにより安全性が向上するだけでなく、ユーザーのAIシステムに対する信頼も高まります。

技術的実装の事例

  • PyTorchと統合する際は、モデルのラップは次のように行います capsa_torch.wrapper() 出力は予測とリスクの両方で構成されます:

Python example met capsa

TensorFlowモデル向けにCapsaはデコレータで動作します:

tensorflow

企業と利用者への影響
NetCareとその顧客にとって、この技術は大きな前進を意味します。私たちは単に賢いだけでなく、安全で予測可能性が高く、幻覚の発生確率が低いAIアプリケーションを提供できます。これにより、企業の意思決定はより根拠のあるものとなり、ミッションクリティカルなアプリケーションへAIを導入する際のリスクを低減できます。

結論
MITは チーム が示すように、AIの未来は単に賢くなることだけでなく、より安全で公正に機能することが重要です。NetCareは、AIが自らの限界を透明に示すときこそ真に価値を発揮すると信じています。Capsaのような先進的な不確実性定量化ツールを用いれば、そのビジョンを実務で実現できます。

ヘラルト

ヘラルトはAIコンサルタントおよびマネージャーとして活動しています。大規模組織での豊富な経験により、問題を迅速に解きほぐし、解決策に導くことができます。経済的な背景と組み合わせることで、事業面で責任ある選択を実現します。