MIT pēta, kā padarīt AI viedāku

AI modeļi mācās to, ko viņi vēl nezināja, no komandas

Mākslīgā intelekta (MI) pielietojums strauji pieaug un arvien vairāk ieaužas mūsu ikdienā un kritiskās nozarēs, piemēram, veselības aprūpē, telekomunikācijās un enerģētikā. Taču ar lielu spēku nāk arī liela atbildība: MI sistēmas dažkārt pieļauj kļūdas vai sniedz nepārliecinošas atbildes, kam var būt nopietnas sekas.

MIT Themis AI, ko līdzdibinājis un vada profesore Daniela Rus no CSAIL laboratorijas, piedāvā revolucionāru risinājumu. Viņu tehnoloģija ļauj MI modeļiem “zināt, ko viņi nezina”. Tas nozīmē, ka MI sistēmas var pašas norādīt, kad tās ir nedrošas par savām prognozēm, tādējādi novēršot kļūdas, pirms tās nodara kaitējumu.

Kāpēc tas ir tik svarīgi?
Daudzi MI modeļi, pat vismodernākie, dažkārt var izrādīt tā sauktās “halucinācijas” — tie sniedz kļūdainas vai nepamatotas atbildes. Nozarēs, kur lēmumiem ir liela nozīme, piemēram, medicīniskajā diagnostikā vai autonomā braukšanā, tam var būt katastrofālas sekas. Themis AI izstrādāja Capsa — platformu, kas pielieto nenoteiktības kvantificēšanu: tā detalizēti un uzticami mēra un kvantificē MI izvades nenoteiktību.

 Kā tas darbojas?
Iemācot modeļiem nenoteiktības apzināšanos, to izvadei var pievienot riska vai uzticamības marķējumu. Piemēram, pašbraucošs auto var norādīt, ka tas nav pārliecināts par situāciju, un tādēļ aktivizēt cilvēka iejaukšanos. Tas ne tikai palielina drošību, bet arī lietotāju uzticēšanos MI sistēmām.

Tehniskās ieviešanas piemēri

  • Integrējot ar PyTorch, modeļa ietīšana notiek, izmantojot capsa_torch.wrapper() kurā izvade ietver gan prognozi, gan risku:

Python example met capsa

TensorFlow modeļiem Capsa izmanto dekoratoru:

tensorflow

Ietekme uz uzņēmumiem un lietotājiem
Mūsu un mūsu klientuprāt, šī tehnoloģija nozīmē milzīgu soli uz priekšu. Mēs varam nodrošināt mākslīgā intelekta (MI) lietojumprogrammas, kas ir ne tikai viedas, bet arī drošas un labāk prognozējamas ar mazāku halucināciju risku. Tas palīdz organizācijām pieņemt pamatotākus lēmumus un samazināt riskus, ieviešot MI uzņēmuma kritiskās lietojumprogrammās.

Secinājums
MIT komanda parāda, ka mākslīgā intelekta nākotne nav saistīta tikai ar viedāku kļūšanu, bet galvenokārt ar drošāku un godīgāku darbību. Mēs NetCare uzskatām, ka mākslīgais intelekts kļūst patiešām vērtīgs tikai tad, ja tas ir caurspīdīgs attiecībā uz saviem ierobežojumiem. Izmantojot progresīvus nenoteiktības kvantifikācijas rīkus, piemēram, Capsa, jūs varat īstenot šo vīziju praksē.

Gerards

Gerards darbojas kā AI konsultants un vadītājs. Ar lielu pieredzi lielās organizācijās viņš spēj īpaši ātri atrisināt problēmu un virzīties uz risinājumu. Apvienojumā ar ekonomisko izpratni viņš nodrošina biznesa ziņā pamatotus lēmumus.

AIR (Mākslīgais Intelekts Robots)