MIT team at work

麻省理工学院团队教导人工智能模型它们不知道的东西。

人工智能 (AI) 的应用正在迅速增长,并日益融入我们的日常生活和医疗保健、电信和能源等高风险行业。但能力越大,责任也越大:AI 系统有时会出错或给出不确定的答案,这可能会产生重大后果。

麻省理工学院的 Themis AI 由 CSAIL 实验室的 Daniela Rus 教授共同创立和领导,提供了一种开创性的解决方案。他们的技术使 AI 模型能够“知道自己不知道什么”。这意味着 AI 系统可以自行指示何时对其预测不确定,从而在错误造成损害之前加以预防。

为什么这如此重要?
许多 AI 模型,即使是先进的模型,有时也会出现所谓的“幻觉”——它们会给出错误或没有根据的答案。在医疗诊断或自动驾驶等决策至关重要的领域,这可能会产生灾难性的后果。Themis AI 开发了 Capsa,这是一个应用不确定性量化的平台:它以详细可靠的方式测量和量化 AI 输出的不确定性。

 它是如何工作的?
通过赋予模型不确定性意识,它们可以为输出提供风险或可靠性标签。例如:自动驾驶汽车可以指示它不确定某个情况,因此激活人工干预。这不仅提高了安全性,还提高了用户对 AI 系统的信任。

技术实现的示例

  • 与 PyTorch 集成时,模型通过 capsa_torch.wrapper() 进行封装,输出包括预测和风险:

Python example met capsa

对于 TensorFlow 模型,Capsa 使用装饰器:

tensorflow

对企业和用户的影响
对于 NetCare 及其客户而言,这项技术意味着向前迈出了一大步。我们可以提供不仅智能,而且安全且更可预测、幻觉可能性更小的 AI 应用。它有助于组织做出更明智的决策,并降低在关键业务应用中引入 AI 的风险。

结论
麻省理工学院 团队 表明,AI 的未来不仅在于变得更智能,更在于更安全、更公平地运行。在 NetCare,我们相信 AI 只有在其自身局限性透明时才真正有价值。借助 Capsa 等先进的不确定性量化工具,您也可以将这一愿景付诸实践。

Gerard

Gerard

Gerard 作为人工智能顾问和经理非常活跃。凭借在大型组织中的丰富经验,他能够非常快速地理清问题并推动解决方案的实现。结合他的经济学背景,他能够做出商业上负责任的决策。

AIR (Artificial Intelligence Robot)