Zastosowanie sztucznej inteligencji (AI) rośnie szybko i coraz bardziej przenika nasze codzienne życie oraz branże o wysokim ryzyku, takie jak opieka zdrowotna, telekomunikacja i energetyka. Jednak z wielką mocą przychodzi wielka odpowiedzialność: systemy AI czasami popełniają błędy lub dają niepewne odpowiedzi, które mogą mieć poważne konsekwencje.
Themis AI z MIT, współzałożona i prowadzona przez profesor Daniela Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia pozwala modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI mogą same wskazać, kiedy są niepewne co do swoich prognoz, co pozwala zapobiec błędom zanim wyrządzą szkodę.
Dlaczego to tak ważne?
Wiele modeli AI, nawet zaawansowanych, może czasami wykazywać tzw. „halucynacje” — podają błędne lub nieuzasadnione odpowiedzi. W sektorach, w których decyzje mają duże znaczenie, takich jak diagnoza medyczna czy autonomiczna jazda, może to mieć katastrofalne skutki. Themis AI opracowała Capsa, platformę stosującą kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyników AI w sposób szczegółowy i wiarygodny.
Jak to działa?
Dzięki wprowadzeniu do modeli świadomości niepewności, mogą one oznaczać wyniki etykietą ryzyka lub wiarygodności. Na przykład: autonomiczny samochód może wskazać, że nie jest pewny sytuacji i w związku z tym uruchomić interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.
capsa_torch.wrapper() gdzie wyjście składa się zarówno z prognozy, jak i ryzyka:

Wnioski
MIT zespół pokazuje, że przyszłość AI nie polega tylko na stawaniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej uczciwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowe dopiero wtedy, gdy jest przejrzyste w odniesieniu do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz wprowadzić tę wizję w praktykę.