인공지능(AI)의 활용은 빠르게 증가하고 있으며 우리 일상과 의료, 통신, 에너지 같은 고위험 산업에 점점 깊숙이 통합되고 있습니다. 그러나 큰 힘에는 큰 책임이 따릅니다. AI 시스템은 때때로 오류를 범하거나 중대한 결과를 초래할 수 있는 불확실한 답변을 제공하기도 합니다.
MIT의 Themis AI는 CSAIL 연구실의 Daniela Rus 교수 등이 공동 설립하고 이끄는 획기적인 솔루션을 제공합니다. 이 기술은 AI 모델이 ‘자신이 모르는 것’을 알 수 있게 합니다. 즉, AI 시스템이 자신의 예측에 대해 불확실할 때 스스로 이를 표시할 수 있어, 피해가 발생하기 전에 오류를 예방할 수 있습니다.
이것이 왜 중요한가요?
많은 AI 모델들은, 심지어 고도화된 모델들도, 때때로 소위 ‘환각(hallucination)’을 일으켜 잘못되거나 근거 없는 답변을 내놓을 수 있습니다. 의료 진단이나 자율주행처럼 결정의 무게가 큰 분야에서는 이는 치명적인 결과를 초래할 수 있습니다. Themis AI는 Capsa라는 플랫폼을 개발했으며, 이는 불확실성 정량화(uncertainty quantification)를 적용하여 AI 출력의 불확실성을 상세하고 신뢰할 수 있게 측정하고 수치화합니다.
어떻게 작동하나요?
모델에 불확실성 인식을 가르치면 출력에 위험도나 신뢰도 라벨을 붙일 수 있습니다. 예를 들어 자율주행차는 특정 상황에 대해 확신이 없음을 표시하고 인간의 개입을 요청할 수 있습니다. 이는 안전성을 높일 뿐만 아니라 AI 시스템에 대한 사용자 신뢰도 향상에 기여합니다.
capsa_torch.wrapper() 출력은 예측과 위험(리스크)으로 구성됩니다:

결론
MIT는 팀 MIT는 AI의 미래가 단순히 더 똑똑해지는 것뿐만 아니라 더 안전하고 공정하게 작동하는 데 있다는 것을 보여줍니다. NetCare는 AI가 스스로의 한계에 대해 투명할 때 진정한 가치를 발휘한다고 믿습니다. Capsa와 같은 고급 불확실성 정량화 도구를 통해 그러한 비전을 실무에 적용할 수 있습니다.