Zastosowanie sztucznej inteligencji (AI) rozwija się dynamicznie, stając się coraz bardziej nieodłącznym elementem naszego codziennego życia oraz kluczowych branż, takich jak opieka zdrowotna, telekomunikacja czy energetyka. Jednak wielka moc wiąże się z wielką odpowiedzialnością: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, co może mieć poważne konsekwencje.
Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, może czasami wykazywać tzw. „halucynacje” — udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, w których decyzje mają ogromne znaczenie, takich jak diagnostyka medyczna czy autonomiczna jazda, może to prowadzić do katastrofalnych skutków. Firma Themis AI opracowała Capsa, platformę stosującą kwantyfikację niepewności (uncertainty quantification): mierzy ona i określa ilościowo niepewność wyników generowanych przez AI w sposób szczegółowy i wiarygodny.
Jak to działa?
Dzięki wyposażeniu modeli w świadomość niepewności (uncertainty awareness), mogą one opatrywać swoje wyniki etykietą ryzyka lub wiarygodności. Na przykład: samochód autonomiczny może zasygnalizować, że nie jest pewien sytuacji, i w związku z tym zażądać interwencji człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.
capsa_torch.wrapper() gdzie wynik składa się zarówno z prognozy, jak i poziomu ryzyka:
Wnioski
Zespół MIT zespół pokazuje, że przyszłość AI nie polega tylko na stawaniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej sprawiedliwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowa dopiero wtedy, gdy jest przejrzysta w kwestii własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, mogą Państwo wprowadzić tę wizję w życie.