MIT prowadzi badania nad zwiększeniem inteligencji AI

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) rozwija się dynamicznie, stając się coraz bardziej nieodłącznym elementem naszego codziennego życia oraz kluczowych branż, takich jak opieka zdrowotna, telekomunikacja czy energetyka. Jednak wielka moc wiąże się z wielką odpowiedzialnością: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, co może mieć poważne konsekwencje.

Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, może czasami wykazywać tzw. „halucynacje” — udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, w których decyzje mają ogromne znaczenie, takich jak diagnostyka medyczna czy autonomiczna jazda, może to prowadzić do katastrofalnych skutków. Firma Themis AI opracowała Capsa, platformę stosującą kwantyfikację niepewności (uncertainty quantification): mierzy ona i określa ilościowo niepewność wyników generowanych przez AI w sposób szczegółowy i wiarygodny.

 Jak to działa?
Dzięki wyposażeniu modeli w świadomość niepewności (uncertainty awareness), mogą one opatrywać swoje wyniki etykietą ryzyka lub wiarygodności. Na przykład: samochód autonomiczny może zasygnalizować, że nie jest pewien sytuacji, i w związku z tym zażądać interwencji człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.

Przykłady implementacji technicznej
  • W przypadku integracji z PyTorch, opakowanie (wrapping) modelu odbywa się poprzez capsa_torch.wrapper() gdzie wynik składa się zarówno z prognozy, jak i poziomu ryzyka:
Python example met capsa
Dla modeli TensorFlow Capsa działa za pomocą dekoratora:
tensorflow
Wpływ na firmy i użytkowników
Dla NetCare i naszych klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać rozwiązania AI, które są nie tylko inteligentne, ale także bezpieczne i bardziej przewidywalne, przy mniejszym ryzyku wystąpienia halucynacji. Pomaga to organizacjom w podejmowaniu lepiej uzasadnionych decyzji oraz w ograniczaniu ryzyka podczas wdrażania AI w aplikacjach o znaczeniu krytycznym dla biznesu.

Wnioski
Zespół MIT zespół pokazuje, że przyszłość AI nie polega tylko na stawaniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej sprawiedliwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowa dopiero wtedy, gdy jest przejrzysta w kwestii własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, mogą Państwo wprowadzić tę wizję w życie.

Gerard

Gerard jest aktywnym konsultantem i menedżerem ds. AI. Dzięki bogatemu doświadczeniu w dużych organizacjach potrafi niezwykle szybko rozwikłać problem i wypracować rozwiązanie. W połączeniu z wykształceniem ekonomicznym zapewnia podejmowanie decyzji uzasadnionych biznesowo.