MIT doet onderzoek om AI slimmer te maken

MIT komanda māca AI modeļiem to, ko tie vēl nezināja.

Mākslīgā intelekta (AI) pielietojums strauji pieaug un kļūst arvien ciešāk saistīts ar mūsu ikdienu un augsta riska nozarēm, piemēram, veselības aprūpi, telekomunikācijām un enerģētiku. Taču ar lielu spēku nāk arī liela atbildība: AI sistēmas reizēm pieļauj kļūdas vai sniedz nenoteiktus atbildes, kam var būt nozīmīgas sekas.

MIT Themis AI, kuru līdzautore un vada profesore Daniela Rus no CSAIL laboratorijas, piedāvā revolucionāru risinājumu. Viņu tehnoloģija ļauj AI modeļiem “zināt, ko tie nezina”. Tas nozīmē, ka AI sistēmas pašas var norādīt, kad tās ir nedrošas par savām prognozēm, tādējādi novēršot kļūdas pirms tām nodarīta kaitējuma.

Kāpēc tas ir tik svarīgi?
Daudzi AI modeļi, pat progresīvi, reizēm var radīt tā sauktās “halucinācijas” — tie sniedz nepareizas vai nepamatotas atbildes. Nozarēs, kur lēmumiem ir būtiska nozīme, piemēram, medicīniskā diagnoze vai autonomā braukšana, tas var novest pie katastrofālām sekām. Themis AI izstrādāja Capsa — platformu, kas pielieto nenoteiktības kvantifikāciju: tā detalizēti un uzticami mēra un kvantificē AI izvadā esošo nenoteiktību.

 Kā tas darbojas?
Iemācot modeļiem nenoteiktības apziņu, tie var aprīkot rezultātus ar riska vai uzticamības marķējumu. Piemēram, pašbraucoša automašīna var norādīt, ka noteiktā situācijā tai trūkst pārliecības, un aktivizēt cilvēka iejaukšanos. Tas ne tikai palielina drošību, bet arī lietotāju uzticību AI sistēmām.

Tehniskās īstenošanas piemēri

  • Integrējot ar PyTorch, modeļa wrapošana notiek caur capsa_torch.wrapper() kur izvade sastāv gan no prognozes, gan riska:

Python example met capsa

TensorFlow modeļiem Capsa darbojas ar dekoratoru:

tensorflow

Ietekme uz uzņēmumiem un lietotājiem
Tā šī tehnoloģija NetCare un tās klientiem nozīmē milzīgu soli uz priekšu. Mēs varam piegādāt AI risinājumus, kas nav tikai inteliģenti, bet arī drošāki un prognozējamāki ar mazāku halucināciju varbūtību. Tas palīdz organizācijām pieņemt labāk pamatotus lēmumus un samazināt riskus, ieviešot AI uzņēmuma kritiskās lietojumprogrammās.

Secinājums
MIT komanda norāda, ka AI nākotne nav tikai par gudrāku kļūšanu, bet galvenokārt par drošāku un taisnīgāku darbību. NetCare uzskata, ka AI kļūst patiesi vērtīgs tikai tad, ja tas ir caurskatāms attiecībā uz saviem ierobežojumiem. Ar moderniem nenoteiktības kvantifikācijas rīkiem, piemēram, Capsa, jūs šo redzējumu varat īstenot praksē.

Gerards

Gerards darbojas kā AI konsultants un vadītājs. Ar plašu pieredzi lielās organizācijās viņš spēj ļoti ātri analizēt problēmu un virzīties uz risinājumu. Apvienojot to ar ekonomisko izglītību, viņš nodrošina komerciāli pamatotus lēmumus.