MIT doet onderzoek om AI slimmer te maken

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika nasze życie codzienne oraz branże o wysokiej odpowiedzialności, takie jak opieka zdrowotna, telekomunikacja i energetyka. Jednak wielka moc pociąga za sobą także wielką odpowiedzialność: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, które mogą mieć poważne konsekwencje.

Themis AI z MIT, współzałożone i kierowane przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia pozwala modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI potrafią same sygnalizować, kiedy są niepewne swoich przewidywań, co pozwala zapobiegać błędom zanim wyrządzają szkody.

Dlaczego to jest tak ważne?
Wiele modeli AI, nawet zaawansowanych, czasami wykazuje tzw. „halucynacje” — udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, w których decyzje mają dużą wagę, takich jak diagnoza medyczna czy jazda autonomiczna, może to mieć katastrofalne skutki. Themis AI opracowało Capsa, platformę stosującą kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyjścia AI w sposób szczegółowy i niezawodny.

 Jak to działa?
Ucząc modele świadomości niepewności, można oznaczać ich wyniki etykietą ryzyka lub wiarygodności. Na przykład samochód autonomiczny może wskazać, że nie jest pewny sytuacji i w związku z tym aktywować ingerencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale też zaufanie użytkowników do systemów AI.

Przykłady technicznej implementacji

  • Przy integracji z PyTorch owinięcie (wrapping) modelu odbywa się przez capsa_torch.wrapper() gdzie wyjście składa się zarówno z przewidywania, jak i z ryzyka:

Python example met capsa

Dla modeli TensorFlow Capsa działa z dekoratorem:

tensorflow

Wpływ dla firm i użytkowników
Dla NetCare i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać zastosowania AI, które są nie tylko inteligentne, lecz także bezpieczne i bardziej przewidywalne, z mniejszym ryzykiem halucynacji. Pomaga to organizacjom podejmować lepiej uzasadnione decyzje i ograniczać ryzyko związane z wdrażaniem AI w aplikacjach krytycznych dla działalności.

Wniosek
MIT zespół pokazuje, że przyszłość AI nie polega tylko na stawaniu się mądrzejszym, lecz przede wszystkim na działaniu w sposób bezpieczniejszy i bardziej sprawiedliwy. W NetCare wierzymy, że AI staje się naprawdę wartościowa dopiero wtedy, gdy jest przejrzysta co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, można tę wizję wdrożyć w praktyce.

Gerard

Gerard działa jako konsultant ds. AI i menedżer. Mając duże doświadczenie w dużych organizacjach, potrafi bardzo szybko rozwiązać problem i doprowadzić do rozwiązania. W połączeniu z wykształceniem ekonomicznym zapewnia podejmowanie uzasadnionych biznesowo decyzji.