MIT team at work

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika nasze codzienne życie oraz branże o wysokim ryzyku, takie jak opieka zdrowotna, telekomunikacja i energetyka. Ale z wielką mocą wiąże się wielka odpowiedzialność: systemy AI czasami popełniają błędy lub dają niepewne odpowiedzi, które mogą mieć poważne konsekwencje.

Themis AI z MIT, współzałożona i kierowana przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia umożliwia modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI mogą same wskazywać, kiedy są niepewne swoich przewidywań, co pozwala zapobiegać błędom, zanim wyrządzą szkody.

Dlaczego jest to tak ważne?
Wiele modeli AI, nawet zaawansowanych, może czasami wykazywać tak zwane „halucynacje” – dają błędne lub nieuzasadnione odpowiedzi. W sektorach, gdzie decyzje mają dużą wagę, takich jak diagnoza medyczna czy autonomiczna jazda, może to mieć katastrofalne skutki. Themis AI opracował Capsa, platformę, która stosuje kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyników AI w szczegółowy i niezawodny sposób.

 Jak to działa?
Dzięki wprowadzeniu do modeli świadomości niepewności, mogą one opatrywać wyniki etykietą ryzyka lub niezawodności. Na przykład: samochód autonomiczny może wskazać, że nie jest pewien sytuacji i dlatego aktywować interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.

Przykłady implementacji technicznej

  • W przypadku integracji z PyTorch, opakowanie modelu odbywa się za pomocą capsa_torch.wrapper(), gdzie wynik składa się zarówno z przewidywania, jak i ryzyka:

Python example met capsa

Dla modeli TensorFlow Capsa działa z dekoratorem:

tensorflow

Wpływ na firmy i użytkowników
Dla NetCare i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać aplikacje AI, które są nie tylko inteligentne, ale także bezpieczne i bardziej przewidywalne, z mniejszym prawdopodobieństwem halucynacji. Pomaga to organizacjom w podejmowaniu lepiej uzasadnionych decyzji i redukcji ryzyka przy wprowadzaniu AI do aplikacji krytycznych dla biznesu.

Podsumowanie
Zespół MIT pokazuje, że przyszłość AI nie polega tylko na stawaniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej sprawiedliwym funkcjonowaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowa tylko wtedy, gdy jest przejrzysta co do swoich własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz również wprowadzić tę wizję w życie.

Gerard

Gerard

Gerard jest aktywny jako konsultant i menedżer AI. Dzięki dużemu doświadczeniu w dużych organizacjach potrafi bardzo szybko rozwiązać problem i dążyć do rozwiązania. Połączone z ekonomicznym wykształceniem zapewnia podejmowanie biznesowo odpowiedzialnych decyzji.

AIR (Artificial Intelligence Robot)