人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、医療、通信、エネルギーなどの重要な産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確実な回答を出したりすることがあり、それが重大な結果を招く可能性があります。
MITのThemis AIは、CSAILラボのダニエラ・ラス教授が共同設立し、率いる画期的なソリューションを提供しています。彼らの技術は、AIモデルが「知らないことを知る」ことを可能にします。これは、AIシステムが予測に不確実性がある場合に、自らそれを表明できることを意味し、損害が発生する前にエラーを防ぐことができます。
なぜこれが重要なのでしょうか?
多くのAIモデル、たとえ高度なものであっても、時に「幻覚」と呼ばれる現象を示すことがあります。つまり、誤った、または根拠のない回答を出すのです。医療診断や自動運転など、意思決定が非常に重要となる分野では、これが壊滅的な結果を招く可能性があります。Themis AIは、不確実性定量化を適用するプラットフォームであるCapsaを開発しました。これは、AI出力の不確実性を詳細かつ信頼性の高い方法で測定し、定量化します。
どのように機能するのでしょうか?
モデルに不確実性認識を教え込むことで、リスクまたは信頼性ラベルを付けて出力を提供できます。たとえば、自動運転車は、状況について確信が持てないことを示し、人間の介入をアクティブにすることができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も高まります。
capsa_torch.wrapper()
を介してモデルをラップし、出力は予測とリスクの両方で構成されます。
結論
MITのチームは、AIの未来が単に賢くなることだけでなく、何よりも安全で公平に機能することにかかっていることを示しています。NetCareでは、AIが真に価値を持つのは、その限界について透明である場合だと信じています。Capsaのような高度な不確実性定量化ツールを使用することで、そのビジョンを実践することもできます。