MIT, AI 지능 향상을 위한 연구 진행

MIT 팀, AI 모델에게 미지의 지식을 학습시키다.

인공지능(AI)의 활용이 급격히 증가하면서 우리 일상과 의료, 통신, 에너지와 같은 고위험 산업 분야에 점점 더 깊숙이 스며들고 있습니다. 하지만 큰 힘에는 큰 책임이 따르는 법입니다. AI 시스템은 때때로 오류를 범하거나 불확실한 답변을 내놓아 심각한 결과를 초래할 수 있습니다.

이것이 왜 그렇게 중요한가요?
많은 AI 모델, 심지어 고도로 발전된 모델조차도 때때로 '환각(hallucination)' 현상을 보입니다. 즉, 잘못되었거나 근거 없는 답변을 제시하는 것입니다. 의료 진단이나 자율 주행처럼 의사결정의 무게가 큰 분야에서는 이러한 현상이 치명적인 결과를 낳을 수 있습니다. Themis AI는 불확실성 정량화(uncertainty quantification)를 적용하는 플랫폼인 Capsa를 개발했습니다. 이 플랫폼은 AI 출력의 불확실성을 상세하고 신뢰할 수 있는 방식으로 측정하고 정량화합니다.

 어떻게 작동하나요?
모델에 불확실성 인식(uncertainty awareness) 기능을 부여함으로써, AI는 출력값에 위험도나 신뢰도 라벨을 표시할 수 있습니다. 예를 들어, 자율 주행 자동차는 특정 상황에 대해 확신이 없을 때 이를 감지하고 인간의 개입을 요청할 수 있습니다. 이는 안전성을 높일 뿐만 아니라 AI 시스템에 대한 사용자의 신뢰도 향상시킵니다.

기술적 구현 사례
  • PyTorch와 통합할 때 모델 래핑(Wrapping)은 다음과 같이 진행됩니다: capsa_torch.wrapper() 출력값은 예측 결과와 위험도를 모두 포함합니다:
Python example met capsa
TensorFlow 모델의 경우, Capsa는 데코레이터를 사용하여 작동합니다:
텐서플로우
기업과 사용자를 위한 영향
NetCare와 고객들에게 이 기술은 엄청난 도약을 의미합니다. 우리는 지능적일 뿐만 아니라 안전하고 예측 가능하며 환각 현상이 적은 AI 애플리케이션을 제공할 수 있습니다. 이는 기업들이 비즈니스 핵심 애플리케이션에 AI를 도입할 때 더 나은 근거에 기반한 의사결정을 내리고 위험을 줄이는 데 도움을 줍니다.

결론
MIT 연구팀은 AI의 미래가 단순히 더 똑똑해지는 것뿐만 아니라, 더 안전하고 공정하게 작동하는 것에 달려 있음을 보여줍니다. NetCare는 AI가 자신의 한계를 투명하게 드러낼 때 비로소 진정한 가치를 발휘한다고 믿습니다. Capsa와 같은 고급 불확실성 정량화 도구를 통해 귀하도 이러한 비전을 실현할 수 있습니다.

Gerard

Gerard는 AI 컨설턴트이자 매니저로 활동하고 있습니다. 대규모 조직에서의 풍부한 경험을 바탕으로 그는 문제를 매우 빠르게 파악하고 해결책을 찾아갑니다. 경제학 배경과 결합되어 비즈니스에 책임 있는 선택을 합니다.