麻省理工学院(MIT)致力于提升 AI 智能水平的研究

麻省理工学院团队教授AI模型其未知知识

人工智能(AI)的应用正在迅速增长,并日益融入我们的日常生活以及医疗保健、电信和能源等高风险行业。但能力越大,责任越大:AI系统有时会犯错或给出可能产生严重后果的不确定答案。

为什么这如此重要?
许多AI模型,即使是先进的模型,有时也会出现所谓的“幻觉”——即给出错误或毫无根据的回答。在医疗诊断或自动驾驶等决策影响重大的领域,这可能会带来灾难性的后果。Themis AI开发了Capsa,这是一个应用不确定性量化(uncertainty quantification)的平台:它能以详细且可靠的方式测量并量化AI输出的不确定性。

 它是如何工作的?
通过赋予模型不确定性感知能力,它们可以为输出结果提供风险或置信度标签。例如:自动驾驶汽车可以指出它对当前情况不确定,从而触发人工干预。这不仅提高了安全性,还增强了用户对AI系统的信任。

技术实现示例
  • 在与PyTorch集成时,通过以下方式封装模型: capsa_torch.wrapper() 输出结果同时包含预测值和风险值:
Python example met capsa
对于TensorFlow模型,Capsa使用装饰器(decorator)进行工作:
TensorFlow
对企业和用户的影响
对于NetCare及其客户而言,这项技术意味着巨大的进步。我们能够提供不仅智能,而且安全、可预测性更高且幻觉风险更低的AI应用。这有助于组织做出更明智的决策,并在将AI引入关键业务应用时降低风险。

结论
麻省理工学院(MIT) 团队 表明AI的未来不仅在于变得更聪明,更在于运行得更安全、更公平。在NetCare,我们坚信只有当AI对其自身的局限性保持透明时,它才真正具有价值。借助Capsa等先进的不确定性量化工具,您可以将这一愿景付诸实践。

Gerard

Gerard 是一位活跃的 AI 顾问兼经理。凭借在大型组织中积累的丰富经验,他能够迅速剖析问题并制定解决方案。结合其经济学背景,他能确保所做决策在商业上是合理且负责任的。