Zastosowanie sztucznej inteligencji (AI) dynamicznie rośnie i coraz bardziej przenika nasze codzienne życie oraz kluczowe branże, takie jak opieka zdrowotna, telekomunikacja czy energetyka. Jednak wraz z wielką mocą pojawia się też wielka odpowiedzialność: systemy AI czasem popełniają błędy lub udzielają niepewnych odpowiedzi, co może mieć poważne konsekwencje.
Themis AI z MIT, współzałożone i prowadzone przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia pozwala modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI potrafią same sygnalizować, gdy nie są pewne swoich prognoz, co pozwala zapobiegać błędom zanim wyrządzą szkody.
Dlaczego to takie ważne?
Wiele modeli AI, nawet tych zaawansowanych, może czasem generować tzw. „halucynacje” – udzielać błędnych lub nieuzasadnionych odpowiedzi. W sektorach, gdzie decyzje mają ogromne znaczenie, jak diagnostyka medyczna czy autonomiczna jazda, może to prowadzić do katastrofalnych skutków. Themis AI opracowało Capsa – platformę wykorzystującą kwantyfikację niepewności: szczegółowo i wiarygodnie mierzy oraz określa poziom niepewności w wynikach AI.
Jak to działa?
Dzięki wyposażeniu modeli w świadomość niepewności mogą one oznaczać swoje wyniki etykietą ryzyka lub wiarygodności. Przykładowo: samochód autonomiczny może zasygnalizować, że nie jest pewny danej sytuacji i w związku z tym poprosić o interwencję człowieka. To nie tylko zwiększa bezpieczeństwo, ale także buduje zaufanie użytkowników do systemów AI.
capsa_torch.wrapper() gdzie wynik obejmuje zarówno prognozę, jak i ryzyko:

Wnioski
MIT Zespół pokazuje, że przyszłość AI to nie tylko większa inteligencja, ale przede wszystkim bezpieczniejsze i bardziej sprawiedliwe działanie. W NetCare wierzymy, że sztuczna inteligencja staje się naprawdę wartościowa dopiero wtedy, gdy jest transparentna co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, mogą Państwo wcielić tę wizję w życie.