MIT prowadzi badania nad zwiększeniem inteligencji AI

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) rozwija się dynamicznie i staje się coraz bardziej splecione z naszym codziennym życiem oraz branżami o wysokim stopniu ryzyka, takimi jak opieka zdrowotna, telekomunikacja i energetyka. Jednak wielka moc wiąże się z wielką odpowiedzialnością: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, co może mieć poważne konsekwencje.

Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, może czasami wykazywać tzw. „halucynacje” – udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, w których decyzje mają dużą wagę, takich jak diagnostyka medyczna czy autonomiczna jazda, może to mieć katastrofalne skutki. Themis AI opracowało Capsa, platformę stosującą kwantyfikację niepewności (uncertainty quantification): mierzy ona i kwantyfikuje niepewność wyników AI w szczegółowy i niezawodny sposób.

 Jak to działa?
Dzięki wyposażeniu modeli w świadomość niepewności (uncertainty awareness), mogą one opatrywać swoje wyniki etykietą ryzyka lub wiarygodności. Na przykład: samochód autonomiczny może zasygnalizować, że nie jest pewien sytuacji, i w związku z tym zażądać interwencji człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.

Przykłady implementacji technicznej
  • W przypadku integracji z PyTorch, opakowanie (wrapping) modelu odbywa się poprzez capsa_torch.wrapper() gdzie wynik składa się zarówno z prognozy, jak i ryzyka:
Python example met capsa
Dla modeli TensorFlow Capsa działa za pomocą dekoratora:
tensorflow
Wpływ na firmy i użytkowników
Dla NetCare i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać aplikacje AI, które są nie tylko inteligentne, ale także bezpieczne i bardziej przewidywalne, z mniejszym ryzykiem wystąpienia halucynacji. Pomaga to organizacjom w podejmowaniu lepiej uzasadnionych decyzji i ograniczaniu ryzyka przy wdrażaniu AI w aplikacjach o znaczeniu krytycznym dla biznesu.

Wnioski
Zespół MIT zespół pokazuje, że przyszłość AI nie polega tylko na byciu mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej uczciwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowa dopiero wtedy, gdy jest przejrzysta w kwestii własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, mogą Państwo wprowadzić tę wizję w życie.

Gerard

Gerard jest aktywnym konsultantem i menedżerem ds. sztucznej inteligencji. Dzięki bogatemu doświadczeniu w pracy z dużymi organizacjami potrafi niezwykle szybko rozwikłać problem i wypracować rozwiązanie. W połączeniu z wykształceniem ekonomicznym zapewnia podejmowanie decyzji uzasadnionych biznesowo.