MIT doet onderzoek om AI slimmer te maken

MIT 팀이 AI 모델에게 아직 알지 못한 것을 가르칩니다.

인공지능(AI)의 활용은 빠르게 증가하고 있으며 우리 일상과 의료, 통신, 에너지 같은 고위험 산업에 점점 깊숙이 통합되고 있습니다. 그러나 큰 힘에는 큰 책임이 따릅니다. AI 시스템은 때때로 오류를 범하거나 중대한 결과를 초래할 수 있는 불확실한 답변을 제공하기도 합니다.

MIT의 Themis AI는 CSAIL 연구실의 Daniela Rus 교수 등이 공동 설립하고 이끄는 획기적인 솔루션을 제공합니다. 이 기술은 AI 모델이 ‘자신이 모르는 것’을 알 수 있게 합니다. 즉, AI 시스템이 자신의 예측에 대해 불확실할 때 스스로 이를 표시할 수 있어, 피해가 발생하기 전에 오류를 예방할 수 있습니다.

이것이 왜 중요한가요?
많은 AI 모델들은, 심지어 고도화된 모델들도, 때때로 소위 ‘환각(hallucination)’을 일으켜 잘못되거나 근거 없는 답변을 내놓을 수 있습니다. 의료 진단이나 자율주행처럼 결정의 무게가 큰 분야에서는 이는 치명적인 결과를 초래할 수 있습니다. Themis AI는 Capsa라는 플랫폼을 개발했으며, 이는 불확실성 정량화(uncertainty quantification)를 적용하여 AI 출력의 불확실성을 상세하고 신뢰할 수 있게 측정하고 수치화합니다.

 어떻게 작동하나요?
모델에 불확실성 인식을 가르치면 출력에 위험도나 신뢰도 라벨을 붙일 수 있습니다. 예를 들어 자율주행차는 특정 상황에 대해 확신이 없음을 표시하고 인간의 개입을 요청할 수 있습니다. 이는 안전성을 높일 뿐만 아니라 AI 시스템에 대한 사용자 신뢰도 향상에 기여합니다.

기술적 구현 사례

  • PyTorch와 통합할 때 모델 래핑은 다음 방식으로 이루어집니다 capsa_torch.wrapper() 출력은 예측과 위험(리스크)으로 구성됩니다:

Python example met capsa

TensorFlow 모델의 경우 Capsa는 데코레이터를 사용합니다:

tensorflow

기업과 사용자에 대한 영향
NetCare와 고객에게 이 기술은 큰 도약을 의미합니다. 저희는 단지 지능적인 것뿐 아니라 안전하고 환각 발생 가능성이 적어 더 예측 가능한 AI 애플리케이션을 제공할 수 있습니다. 이는 기업이 근거 있는 결정을 내리고, 핵심 비즈니스 애플리케이션에 AI를 도입할 때 위험을 줄이는 데 도움을 줍니다.

결론
MIT는 MIT는 AI의 미래가 단순히 더 똑똑해지는 것뿐만 아니라 더 안전하고 공정하게 작동하는 데 있다는 것을 보여줍니다. NetCare는 AI가 스스로의 한계에 대해 투명할 때 진정한 가치를 발휘한다고 믿습니다. Capsa와 같은 고급 불확실성 정량화 도구를 통해 그러한 비전을 실무에 적용할 수 있습니다.

제라드

제라드는 AI 컨설턴트이자 매니저로 활동하고 있습니다. 대규모 조직에서의 풍부한 경험을 바탕으로 문제를 신속하게 분석하고 해결책으로 이끌어낼 수 있습니다. 경제학적 배경과 결합되어 비즈니스적으로 책임 있는 선택을 제공합니다.