MIT team at work

MIT 팀, AI 모델에 그들이 아직 모르는 것을 가르치다.

인공지능(AI)의 적용은 빠르게 성장하고 있으며, 우리의 일상생활과 의료, 통신, 에너지와 같은 중요한 산업과 점점 더 얽혀가고 있습니다. 그러나 큰 힘에는 큰 책임이 따릅니다. AI 시스템은 때때로 오류를 범하거나 불확실한 답변을 제공하여 큰 결과를 초래할 수 있습니다.

CSAIL 연구소의 다니엘라 러스 교수가 공동 설립하고 이끄는 MIT의 Themis AI는 획기적인 솔루션을 제공합니다. 이들의 기술은 AI 모델이 ‘자신이 모르는 것을 알도록’ 합니다. 이는 AI 시스템이 예측에 대해 불확실할 때 스스로 이를 나타낼 수 있어, 오류가 발생하기 전에 방지할 수 있음을 의미합니다.

왜 이것이 그렇게 중요할까요?
많은 AI 모델은 심지어 고급 모델조차 때때로 ‘환각’이라고 불리는 것을 보일 수 있습니다. 즉, 잘못되거나 근거 없는 답변을 제공하는 것입니다. 의료 진단이나 자율 주행과 같이 결정이 중요한 분야에서는 이는 치명적인 결과를 초래할 수 있습니다. Themis AI는 불확실성 정량화를 적용하는 플랫폼인 Capsa를 개발했습니다. 이는 AI 출력의 불확실성을 상세하고 신뢰할 수 있는 방식으로 측정하고 정량화합니다.

 어떻게 작동하나요?
모델에 불확실성 인식을 가르침으로써, 모델은 출력에 위험 또는 신뢰도 레이블을 제공할 수 있습니다. 예를 들어, 자율 주행 자동차는 상황에 대해 확신이 없음을 나타내고 따라서 인간의 개입을 활성화할 수 있습니다. 이는 안전성을 높일 뿐만 아니라 AI 시스템에 대한 사용자의 신뢰도 높입니다.

기술 구현 예시

  • PyTorch와 통합할 때, 모델은 capsa_torch.wrapper()를 통해 래핑되며, 출력은 예측과 위험 모두를 포함합니다.

Python example met capsa

TensorFlow 모델의 경우, Capsa는 데코레이터와 함께 작동합니다.

tensorflow

기업 및 사용자를 위한 영향
NetCare와 그 고객에게 이 기술은 엄청난 진전을 의미합니다. 우리는 지능적일 뿐만 아니라 안전하고 예측 가능하며 환각 가능성이 적은 AI 애플리케이션을 제공할 수 있습니다. 이는 조직이 더 나은 정보에 기반한 결정을 내리고 비즈니스 크리티컬 애플리케이션에 AI를 도입할 때 위험을 줄이는 데 도움이 됩니다.

결론
MIT 은 AI의 미래가 단순히 더 똑똑해지는 것뿐만 아니라, 무엇보다도 더 안전하고 공정하게 기능하는 것임을 보여줍니다. NetCare는 AI가 자체 한계에 대해 투명할 때만 진정으로 가치 있다고 믿습니다. Capsa와 같은 고급 불확실성 정량화 도구를 사용하면 이러한 비전을 실현할 수 있습니다.

Gerard

Gerard

Gerard는 AI 컨설턴트이자 매니저로 활동하고 있습니다. 대규모 조직에서의 풍부한 경험을 바탕으로 문제를 매우 빠르게 파악하고 해결책을 모색할 수 있습니다. 경제학 배경과 결합하여 비즈니스적으로 책임 있는 결정을 내립니다.

AIR (Artificial Intelligence Robot)