Zastosowanie sztucznej inteligencji (AI) rozwija się dynamicznie i staje się coraz bardziej splecione z naszym codziennym życiem oraz branżami o wysokim stopniu ryzyka, takimi jak opieka zdrowotna, telekomunikacja i energetyka. Jednak wielka moc wiąże się z wielką odpowiedzialnością: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, co może mieć poważne konsekwencje.
Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, może czasami wykazywać tzw. „halucynacje” – udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, w których decyzje mają dużą wagę, takich jak diagnostyka medyczna czy autonomiczna jazda, może to mieć katastrofalne skutki. Themis AI opracowało Capsa, platformę stosującą kwantyfikację niepewności (uncertainty quantification): mierzy ona i kwantyfikuje niepewność wyników AI w szczegółowy i niezawodny sposób.
Jak to działa?
Dzięki wyposażeniu modeli w świadomość niepewności (uncertainty awareness), mogą one opatrywać swoje wyniki etykietą ryzyka lub wiarygodności. Na przykład: samochód autonomiczny może zasygnalizować, że nie jest pewien sytuacji, i w związku z tym zażądać interwencji człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.
capsa_torch.wrapper() gdzie wynik składa się zarówno z prognozy, jak i ryzyka:
Wnioski
Zespół MIT zespół pokazuje, że przyszłość AI nie polega tylko na byciu mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej uczciwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowa dopiero wtedy, gdy jest przejrzysta w kwestii własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, mogą Państwo wprowadzić tę wizję w życie.