Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika do naszego codziennego życia oraz kluczowych branż przemysłowych, takich jak opieka zdrowotna, telekomunikacja i energetyka. Jednak z wielką mocą idzie wielka odpowiedzialność: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, co może mieć dalekosiężne konsekwencje.
Themis AI z MIT, współzałożona i kierowana przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia pozwala modelom AI na “wiedzenie, czego nie wiedzą”. Oznacza to, że systemy AI mogą same sygnalizować, kiedy są niepewne swoich prognoz, co pozwala zapobiegać błędom, zanim wyrządzą szkody.
Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, czasami wykazuje tzw. “haluynacje”—udzielają nieprawdziwych lub nieuzasadnionych odpowiedzi. W sektorach, gdzie decyzje mają duże znaczenie, takich jak diagnoza medyczna czy jazda autonomiczna, może to prowadzić do katastrofalnych skutków. Themis AI opracowała Capsa, platformę, która stosuje kwantyfikację niepewności (uncertainty quantification): mierzy i kwantyfikuje niepewność wyników AI w szczegółowy i niezawodny sposób.
Jak to działa?
Wprowadzając świadomość niepewności do modeli, można opatrzyć ich wyniki etykietą ryzyka lub wiarygodności. Na przykład: autonomiczny samochód może wskazać, że nie jest pewien sytuacji i w związku z tym aktywować interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.
capsa_torch.wrapper() gdzie wyjście składa się zarówno z predykcji, jak i ryzyka:

Wniosek
MIT zespół pokazuje, że przyszłość AI nie polega tylko na staniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej sprawiedliwym działaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowe dopiero wtedy, gdy jest transparentne co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz wdrożyć tę wizję w praktyce.