Mākslīgā intelekta (AI) pielietojums strauji pieaug un kļūst arvien ciešāk saistīts ar mūsu ikdienu un augsta riska nozarēm, piemēram, veselības aprūpi, telekomunikācijām un enerģētiku. Taču ar lielu spēku nāk arī liela atbildība: AI sistēmas reizēm pieļauj kļūdas vai sniedz nenoteiktus atbildes, kam var būt nozīmīgas sekas.
MIT Themis AI, kuru līdzautore un vada profesore Daniela Rus no CSAIL laboratorijas, piedāvā revolucionāru risinājumu. Viņu tehnoloģija ļauj AI modeļiem “zināt, ko tie nezina”. Tas nozīmē, ka AI sistēmas pašas var norādīt, kad tās ir nedrošas par savām prognozēm, tādējādi novēršot kļūdas pirms tām nodarīta kaitējuma.
Kāpēc tas ir tik svarīgi?
Daudzi AI modeļi, pat progresīvi, reizēm var radīt tā sauktās “halucinācijas” — tie sniedz nepareizas vai nepamatotas atbildes. Nozarēs, kur lēmumiem ir būtiska nozīme, piemēram, medicīniskā diagnoze vai autonomā braukšana, tas var novest pie katastrofālām sekām. Themis AI izstrādāja Capsa — platformu, kas pielieto nenoteiktības kvantifikāciju: tā detalizēti un uzticami mēra un kvantificē AI izvadā esošo nenoteiktību.
Kā tas darbojas?
Iemācot modeļiem nenoteiktības apziņu, tie var aprīkot rezultātus ar riska vai uzticamības marķējumu. Piemēram, pašbraucoša automašīna var norādīt, ka noteiktā situācijā tai trūkst pārliecības, un aktivizēt cilvēka iejaukšanos. Tas ne tikai palielina drošību, bet arī lietotāju uzticību AI sistēmām.
capsa_torch.wrapper() kur izvade sastāv gan no prognozes, gan riska:

Secinājums
MIT komanda norāda, ka AI nākotne nav tikai par gudrāku kļūšanu, bet galvenokārt par drošāku un taisnīgāku darbību. NetCare uzskata, ka AI kļūst patiesi vērtīgs tikai tad, ja tas ir caurskatāms attiecībā uz saviem ierobežojumiem. Ar moderniem nenoteiktības kvantifikācijas rīkiem, piemēram, Capsa, jūs šo redzējumu varat īstenot praksē.