人工智能(AI)的应用正在迅速增长,并越来越多地融入我们的日常生活以及医疗保健、电信和能源等高风险行业。但巨大的力量也伴随着巨大的责任:AI 系统有时会犯错或给出不确定的答案,这可能产生重大影响。
麻省理工学院(MIT)的 Themis AI,由 CSAIL 实验室的 Daniela Rus 教授共同创立和领导,提供了一项突破性的解决方案。他们的技术使 AI 模型能够“知道自己不知道什么”。这意味着 AI 系统可以自行指出其预测的不确定性所在,从而在造成损害之前避免错误。
为什么这如此重要?
许多 AI 模型,即便是先进的模型,有时也会出现所谓的“幻觉”——它们会给出错误或毫无根据的答案。在医疗诊断或自动驾驶等决策影响重大的行业中,这可能带来灾难性的后果。Themis AI 开发了 Capsa,这是一个应用不确定性量化的平台:它以详细且可靠的方式衡量和量化 AI 输出的不确定性。
它是如何运作的?
通过向模型灌输不确定性感知能力,可以为它们的输出附加风险或置信度标签。例如:自动驾驶汽车可以表明它对某种情况不确定,并因此激活人工干预。这不仅提高了安全性,也增强了用户对 AI 系统的信任。
capsa_torch.wrapper() waarbij de output zowel de voorspelling als het risico omvat:

结论
麻省理工学院 团队 麻省理工学院的研究表明,人工智能的未来不仅在于变得更智能,更在于确保其运行的安全性和公平性。在 NetCare,我们相信,只有当人工智能能够透明地说明自身的局限性时,它才能真正具有价值。借助 Capsa 等先进的不确定性量化工具,您也可以将这一愿景付诸实践。