MIT იკვლევს, როგორ გახდეს AI უფრო ჭკვიანი

MIT-ის გუნდი AI მოდელებს ასწავლის იმას, რაც მათ ჯერ არ იცოდნენ

인공지능(AI)의 적용은 빠르게 성장하고 있으며, 의료, 통신, 에너지와 같은 고위험 산업과 우리 일상생활에 점점 더 깊숙이 얽히고 있습니다. 하지만 큰 힘에는 큰 책임이 따릅니다. AI 시스템은 때때로 실수를 하거나 불확실한 답변을 내놓을 수 있으며, 이는 중대한 결과를 초래할 수 있습니다.

CSAIL 연구소의 다니엘라 루스(Daniela Rus) 교수가 공동 설립하고 이끄는 MIT의 Themis AI는 획기적인 솔루션을 제공합니다. 이 기술은 AI 모델이 '자신이 모르는 것을 알 수 있도록' 지원합니다. 즉, AI 시스템이 예측에 대해 확신이 없을 때 스스로 이를 표시할 수 있게 하여, 피해가 발생하기 전에 오류를 방지할 수 있습니다.

이것이 왜 그렇게 중요할까요?
고급 AI 모델조차도 때때로 소위 '환각(hallucinations)'을 보일 수 있습니다. 즉, 잘못되거나 근거 없는 답변을 내놓는 것입니다. 의료 진단이나 자율 주행과 같이 결정의 무게가 무거운 분야에서는 이것이 치명적인 결과를 초래할 수 있습니다. Themis AI는 불확실성 정량화(uncertainty quantification)를 적용하는 플랫폼인 Capsa를 개발했습니다. 이는 AI 출력의 불확실성을 상세하고 신뢰할 수 있는 방식으로 측정하고 정량화합니다.

 작동 방식은 무엇입니까?
모델에 불확실성 인식을 부여함으로써, 출력에 위험 또는 신뢰도 레이블을 제공할 수 있습니다. 예를 들어, 자율 주행 자동차는 특정 상황에 대해 확신이 없음을 표시하고 인간의 개입을 활성화할 수 있습니다. 이는 안전성을 높일 뿐만 아니라 AI 시스템에 대한 사용자의 신뢰도 향상시킵니다.

ტექნიკური იმპლემენტაციის მაგალითები

  • PyTorch-თან ინტეგრაციისას, მოდელის შეფუთვა ხდება capsa_torch.wrapper() სადაც გამომავალი არის როგორც პროგნოზი, ასევე რისკი:

Python example met capsa

TensorFlow მოდელებისთვის, Capsa იყენებს დეკორატორს:

텐서플로우

გავლენა კომპანიებსა და მომხმარებლებზე
NetCare-ისა და მისი კლიენტებისთვის ეს ტექნოლოგია უდიდესი წინგადადგმული ნაბიჯია. ჩვენ შეგვიძლია შევთავაზოთ ხელოვნური ინტელექტის ისეთი აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უფრო მეტად პროგნოზირებადია, ჰალუცინაციების ნაკლები რისკით. ეს ორგანიზაციებს ეხმარება უკეთ დასაბუთებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში ხელოვნური ინტელექტის ბიზნესისთვის კრიტიკულ აპლიკაციებში დანერგვისას.

დასკვნა
MIT AI의 미래가 단순히 더 똑똑해지는 것에만 국한되지 않고, 더 안전하고 공정하게 작동하는 데 달려 있음을 보여줍니다. NetCare는 AI가 자체적인 한계에 대해 투명할 때 비로소 진정으로 가치 있다고 믿습니다. Capsa와 같은 고급 불확실성 정량화 도구를 통해 귀사도 이러한 비전을 실현할 수 있습니다.

제라드

제라드는 AI 컨설턴트이자 관리자로 활동하고 있습니다. 대규모 조직에서의 풍부한 경험을 바탕으로 문제를 매우 신속하게 파악하고 해결책을 향해 나아갈 수 있습니다. 경제학적 배경과 결합하여 비즈니스적으로 책임감 있는 선택을 보장합니다.

AIR (인공지능 로봇)