MIT veic pētījumus, lai AI kļūtu gudrāks

MIT komanda māca AI modeļus to, ko tie vēl nezināja.

Mākslīgā intelekta (AI) pielietojums strauji pieaug un arvien vairāk savijas ar mūsu ikdienas dzīvi un augstas likmes nozarēm, piemēram, veselības aprūpi, telekomunikācijām un enerģētiku. Bet ar lielu spēku nāk arī liela atbildība: AI sistēmas dažkārt pieļauj kļūdas vai sniedz nenoteiktas atbildes, kas var radīt nopietnas sekas.

MIT Themis AI, ko līdzdibinājusi un vada profesore Daniela Rus no CSAIL laboratorijas, piedāvā pārsteidzošu risinājumu. Viņu tehnoloģija ļauj AI modeļiem ‘zināt, ko viņi nezinā’, tas nozīmē, ka AI sistēmas pašas var norādīt, kad tās ir nenoteiktas par savām prognozēm, tādējādi novēršot kļūdas, pirms tās rada kaitējumu.

Kāpēc tas ir tik svarīgi?
Daudzi AI modeļi, pat progresīvi, dažkārt var parādīt tā sauktās ‘halucinācijas’ — tie sniedz nepareizas vai nepamatotas atbildes. Nozarēs, kur lēmumi ir svarīgi, piemēram, medicīniskā diagnostika vai autonomā braukšana, tas var radīt postošas sekas. Themis AI izstrādāja Capsa, platformu, kas izmanto nenoteiktības kvantifikāciju: tas mēra un kvantificē AI izvades nenoteiktību detalizētā un uzticamā veidā.

 Kā tas darbojas?
Ieviešot modeļiem nenoteiktības apziņu, tie var pievienot izvadei riska vai uzticamības birku. Piemēram, autonomais automobilis var norādīt, ka tas nav pārliecināts par situāciju, un tādējādi aktivizēt cilvēka iejaukšanos. Tas ne tikai uzlabo drošību, bet arī palielina lietotāju uzticību AI sistēmām.

Tehniskās īstenošanas piemēri

  • Integrējot ar PyTorch, modeļa aptinēšana notiek caur capsa_torch.wrapper() kurā izvade sastāv gan no prognozes, gan no riska:

Python example met capsa

TensorFlow modeļiem Capsa darbojas ar dekoratoru:

TensorFlow

Ietekme uz uzņēmumiem un lietotājiem
NetCare un tās klientiem šī tehnoloģija nozīmē milzīgu soli uz priekšu. Mēs varam piedāvāt AI risinājumus, kas ne tikai ir inteliģenti, bet arī droši un labāk prognozējami, ar mazāku halucināciju risku. Tas palīdz organizācijām pieņemt labāk pamatotus lēmumus un samazināt riskus, ieviešot AI uzņēmuma kritiskajās lietojumprogrammās.

Secinājums
MIT komanda parāda, ka AI nākotne ne tikai ir par kļūšanu gudrākam, bet arī par drošāku un godīgāku darbību. NetCare uzskata, ka AI kļūst patiesi vērtīgs tikai tad, ja tas ir caurspīdīgs par savām ierobežojumiem. Ar progresīvām nenoteiktības kvantifikācijas rīkiem, piemēram, Capsa, jūs varat šo redzējumu īstenot praksē.

Gerard

Gerards ir aktīvs kā AI konsultants un vadītājs. Ar plašu pieredzi lielās organizācijās viņš var īpaši ātri atklāt problēmu un virzīties uz risinājumu. Kombinējot ar ekonomisko izglītību, viņš nodrošina biznesa atbildīgus lēmumus.