人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、ヘルスケア、通信、エネルギーといった重要な産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確実な答えを出したりすることがあり、それが大きな影響を及ぼす可能性があります。
MITのCSAIL研究室のダニエラ・ラス教授が共同設立し、率いるThemis AIは、画期的なソリューションを提供しています。彼らの技術は、AIモデルが「知らないことを知る」ことを可能にします。これは、AIシステムが自身の予測に不確実性があることを自ら示すことができ、損害が発生する前にエラーを防ぐことができることを意味します。
なぜこれが重要なのでしょうか?
多くのAIモデル、たとえ高度なものであっても、時にはいわゆる「幻覚」を示すことがあります。つまり、誤った、または根拠のない答えを出すことがあります。医療診断や自動運転など、意思決定が非常に重要となる分野では、これは壊滅的な結果をもたらす可能性があります。Themis AIは、不確実性定量化を適用するプラットフォームであるCapsaを開発しました。これは、AI出力の不確実性を詳細かつ信頼性の高い方法で測定し、定量化します。
どのように機能するのでしょうか?
モデルに不確実性認識を教え込むことで、リスクまたは信頼性のラベルを付けて出力を提供できるようになります。例えば、自動運転車は、状況について確信が持てないことを示し、人間の介入を促すことができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も向上します。
capsa_torch.wrapper()
を介してモデルをラップし、出力は予測とリスクの両方で構成されます。
結論
MITのチームは、AIの未来が単に賢くなることだけでなく、より安全で公正に機能することにかかっていることを示しています。NetCareでは、AIが自身の限界について透明である場合にのみ、真に価値あるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、そのビジョンを実践することができます。