MIT prowadzi badania, aby uczynić AI mądrzejszą

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) rośnie szybko i coraz bardziej przenika nasze codzienne życie oraz branże o wysokim ryzyku, takie jak opieka zdrowotna, telekomunikacja i energetyka. Jednak z wielką mocą przychodzi wielka odpowiedzialność: systemy AI czasami popełniają błędy lub dają niepewne odpowiedzi, które mogą mieć poważne konsekwencje.

Themis AI z MIT, współzałożona i prowadzona przez profesor Daniela Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia pozwala modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI mogą same wskazać, kiedy są niepewne co do swoich prognoz, co pozwala zapobiec błędom zanim wyrządzą szkodę.

Dlaczego to tak ważne?
Wiele modeli AI, nawet zaawansowanych, może czasami wykazywać tzw. „halucynacje” — podają błędne lub nieuzasadnione odpowiedzi. W sektorach, w których decyzje mają duże znaczenie, takich jak diagnoza medyczna czy autonomiczna jazda, może to mieć katastrofalne skutki. Themis AI opracowała Capsa, platformę stosującą kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyników AI w sposób szczegółowy i wiarygodny.

 Jak to działa?
Dzięki wprowadzeniu do modeli świadomości niepewności, mogą one oznaczać wyniki etykietą ryzyka lub wiarygodności. Na przykład: autonomiczny samochód może wskazać, że nie jest pewny sytuacji i w związku z tym uruchomić interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.

Przykłady implementacji technicznej

  • Przy integracji z PyTorch chodzi o opakowanie modelu poprzez capsa_torch.wrapper() gdzie wyjście składa się zarówno z prognozy, jak i ryzyka:

Python example met capsa

Dla modeli TensorFlow Capsa działa z dekoratorem:

TensorFlow

Wpływ na firmy i użytkowników
Dla NetCare i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać aplikacje AI, które nie tylko są inteligentne, ale także bezpieczne i lepiej przewidywalne, z mniejszym ryzykiem halucynacji. Pomaga to organizacjom w podejmowaniu lepiej uzasadnionych decyzji i redukcji ryzyka przy wdrażaniu AI w krytycznych aplikacjach biznesowych.

Wnioski
MIT zespół pokazuje, że przyszłość AI nie polega tylko na stawaniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej uczciwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowe dopiero wtedy, gdy jest przejrzyste w odniesieniu do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz wprowadzić tę wizję w praktykę.

Gerard

Gerard jest aktywnym konsultantem i menedżerem AI. Dzięki dużemu doświadczeniu w dużych organizacjach potrafi wyjątkowo szybko rozwiązać problem i dążyć do rozwiązania. Połączenie z wykształceniem ekonomicznym zapewnia biznesowo odpowiedzialne wybory.