MIT 正在研究让 AI 更智能

MIT团队让AI模型学习它们尚未掌握的内容。

人工智能(AI)的应用快速增长,日益融入我们的日常生活以及医疗、通信和能源等高风险行业。但大权伴随大责:AI系统有时会出错或给出不确定的答案,可能产生重大影响。

这为何如此重要?
许多AI模型,即使是先进的,有时也会出现所谓的“幻觉”——给出错误或无依据的答案。在决策关键的领域,如医学诊断或自动驾驶,这可能导致灾难性后果。Themis AI开发了Capsa平台,采用不确定性量化技术:它以详尽且可靠的方式测量并量化AI输出的不确定性。

 它是如何运作的?
通过赋予模型不确定性感知,它们可以为输出附加风险或可信度标签。例如:自动驾驶汽车可以指示对某一情境不确定,从而触发人工干预。这不仅提升了安全性,也增强了用户对AI系统的信任。

技术实现示例
  • 在与PyTorch集成时,需要通过以下方式包装模型 capsa_torch.wrapper() 其输出包括预测结果和风险:
Python example met capsa
对于TensorFlow模型,Capsa通过装饰器工作:
TensorFlow
对企业和用户的影响
对NetCare及其客户而言,这项技术是一次巨大的飞跃。我们能够提供不仅智能且更安全、更可预测、且幻觉风险更低的AI应用。这帮助组织在做出更有依据的决策时,降低在关键业务应用中引入AI的风险。

结论
MIT 团队 表明AI的未来不仅在于变得更聪明,更在于实现更安全、更公平的运行。NetCare相信,AI只有在对自身局限透明时才真正有价值。借助Capsa等先进的不确定性量化工具,您也可以将这一愿景付诸实践。

Gerard

Gerard 作为 AI 顾问和经理活跃。凭借在大型组织的丰富经验,他能够非常快速地拆解问题并推动解决方案。结合经济学背景,他确保做出商业上负责任的选择。