MIT prowadzi badania, aby uczynić AI mądrzejszą

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) rośnie szybko i coraz bardziej przenika nasze codzienne życie oraz branże o wysokim ryzyku, takie jak opieka zdrowotna, telekomunikacja i energetyka. Jednak z wielką mocą przychodzi także wielka odpowiedzialność: systemy AI czasami popełniają błędy lub dają niepewne odpowiedzi, które mogą mieć poważne konsekwencje.

Dlaczego to jest tak ważne?
Wiele modeli AI, nawet zaawansowane, może czasami wykazywać tzw. „halucynacje” — podają błędne lub nieuzasadnione odpowiedzi. W sektorach, w których decyzje mają duże znaczenie, takich jak diagnoza medyczna czy autonomiczna jazda, może to mieć katastrofalne skutki. Themis AI opracowała Capsa, platformę stosującą kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyników AI w sposób szczegółowy i wiarygodny.

 Jak to działa?
Poprzez wprowadzenie do modeli świadomości niepewności, mogą one oznaczać wyniki etykietą ryzyka lub wiarygodności. Na przykład: samochód autonomiczny może wskazać, że nie jest pewny sytuacji i w związku z tym uruchomić interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.

Przykłady implementacji technicznej
  • Przy integracji z PyTorch chodzi o opakowanie modelu poprzez capsa_torch.wrapper() przy czym wyjście składa się zarówno z prognozy, jak i ryzyka:
Python example met capsa
Dla modeli TensorFlow Capsa działa z dekoratorem:
TensorFlow
Wpływ na firmy i użytkowników
Dla NetCare i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać rozwiązania AI, które nie tylko są inteligentne, ale także bezpieczne i lepiej przewidywalne, z mniejszym ryzykiem halucynacji. Pomaga to organizacjom w podejmowaniu lepiej uzasadnionych decyzji i redukcji ryzyka przy wdrażaniu AI w krytycznych aplikacjach biznesowych.

Wnioski
MIT zespół pokazuje, że przyszłość AI nie polega wyłącznie na stawaniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej uczciwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowe dopiero wtedy, gdy jest przejrzyste w odniesieniu do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz wprowadzić tę wizję w praktykę.

Gerard

Gerard działa jako konsultant AI i menedżer. Dzięki bogatemu doświadczeniu w dużych organizacjach potrafi wyjątkowo szybko rozgryźć problem i dążyć do rozwiązania. Połączenie z wykształceniem ekonomicznym zapewnia mu podejmowanie odpowiedzialnych biznesowo wyborów.