麻省理工学院致力于让AI更智能的研究

麻省理工学院团队教AI模型学习新知识

人工智能(AI)的应用正在迅速增长,并日益与我们的日常生活以及医疗保健、电信和能源等高风险行业交织在一起。然而,能力越大,责任也越大:AI系统有时会犯错或给出不确定的答案,这可能带来严重后果。

麻省理工学院(MIT)的Themis AI,由CSAIL实验室的Daniela Rus教授共同创立和领导,提供了一项突破性解决方案。他们的技术使AI模型能够“知道自己不知道什么”。这意味着AI系统可以自行指出其预测的不确定性所在,从而在造成损害之前避免错误。

为什么这如此重要?
许多AI模型,即便是先进的模型,有时也会出现所谓的“幻觉”——它们会给出错误或毫无根据的答案。在医疗诊断或自动驾驶等决策影响重大的行业中,这可能导致灾难性后果。Themis AI开发了Capsa,这是一个应用不确定性量化的平台:它以详细且可靠的方式衡量和量化AI输出的不确定性。

 工作原理?
通过向模型灌输不确定性感知,可以为它们的输出提供风险或置信度标签。例如,自动驾驶汽车可以表明它对某种情况不确定,因此会触发人工干预。这不仅提高了安全性,也增强了用户对人工智能系统的信任。

技术实施示例

  • 当与 PyTorch 集成时,模型的封装通过 capsa_torch.wrapper() 其中输出包括预测和风险:

Python example met capsa

对于 TensorFlow 模型,Capsa 使用一个装饰器:

TensorFlow

对企业和用户的影响
对于 NetCare 及其客户而言,这项技术意味着巨大的飞跃。我们可以交付不仅智能,而且安全、更具可预测性、减少“幻觉”的 AI 应用。它有助于组织在将 AI 引入关键业务应用时,做出更明智的决策并降低风险。

结论
麻省理工学院(MIT) 团队 表明人工智能的未来不仅在于变得更智能,更在于实现更安全、更公平的运行。在 NetCare,我们相信,只有当人工智能能够透明地说明自身的局限性时,它才能真正具有价值。借助 Capsa 等先进的不确定性量化工具,您也可以将这一愿景付诸实践。

格拉德

Gerard 担任人工智能顾问和经理。凭借在大型组织中的丰富经验,他能非常迅速地剖析问题并着手解决。结合其经济学背景,他确保了商业上负责任的决策。

人工智能机器人