麻省理工学院(MIT)致力于让 AI 更智能的研究

MIT团队教会AI模型它们尚不了解的知识。

人工智能(AI)的应用正在迅速增长,并日益融入我们的日常生活以及医疗保健、电信和能源等高风险行业。但能力越大,责任越大:AI系统有时会犯错或给出可能产生严重后果的不确定答案。

为什么这如此重要?
许多AI模型,即使是先进的模型,有时也会出现所谓的“幻觉”——即给出错误或毫无根据的回答。在医疗诊断或自动驾驶等决策影响重大的领域,这可能会带来灾难性的后果。Themis AI开发了Capsa,这是一个应用不确定性量化(uncertainty quantification)的平台:它能以详细且可靠的方式测量并量化AI输出的不确定性。

 它是如何工作的?
通过赋予模型不确定性感知能力,它们可以为输出结果标注风险或置信度标签。例如:一辆自动驾驶汽车可以指出它对当前情况不确定,从而触发人工干预。这不仅提高了安全性,还增强了用户对AI系统的信任。

技术实施示例
  • 在与PyTorch集成时,通过以下方式封装模型: capsa_torch.wrapper() 输出结果同时包含预测值和风险值:
Python example met capsa
对于 TensorFlow 模型,Capsa 使用装饰器(decorator)进行工作:
TensorFlow
对企业和用户的影响
对于 NetCare 及其客户而言,这项技术意味着巨大的进步。我们能够提供不仅智能,而且安全、可预测性更高且幻觉风险更低的 AI 应用。这有助于企业在将 AI 引入关键业务应用时,做出更明智的决策并降低风险。

结论
麻省理工学院(MIT) 团队 表明AI的未来不仅在于变得更聪明,更在于运行得更安全、更公平。在NetCare,我们坚信只有当AI对其自身的局限性保持透明时,它才真正具有价值。借助Capsa等先进的不确定性量化工具,您可以将这一愿景付诸实践。

杰拉德

Gerard 是一位活跃的人工智能顾问兼经理。凭借在大型组织中积累的丰富经验,他能够极其迅速地剖析问题并制定解决方案。结合其经济学背景,他能够确保所做出的决策在商业上是合理且负责任的。