Mākslīgā intelekta (AI) pielietojums strauji pieaug un arvien vairāk savijas ar mūsu ikdienu un ar augsta riska nozarēm, piemēram, veselības aprūpi, telekomunikācijām un enerģētiku. Tomēr ar lielu spēku nāk arī liela atbildība: AI sistēmas dažkārt pieļauj kļūdas vai sniedz nenoteiktas atbildes, kas var radīt nopietnas sekas.
Kāpēc tas ir tik svarīgi?
Daudzi AI modeļi, pat uzlaboti, dažkārt var parādīt tā sauktās “halucinācijas” — tie sniedz neprecīzus vai nepamatotus atbildes. Nozarēs, kur lēmumi ir svarīgi, piemēram, medicīniskā diagnostika vai autonomā braukšana, tas var radīt postošas sekas. Themis AI izstrādāja Capsa, platformu, kas izmanto nenoteiktības kvantifikāciju: tas mēra un kvantificē AI iznākumu nenoteiktību detalizētā un uzticamā veidā.
Kā tas darbojas?
Ieviešot modeļiem nenoteiktības apziņu, tie var pievienot izvadam riska vai uzticamības marķieri. Piemēram, pašbraucošais automobilis var norādīt, ka tas nav pārliecināts par situāciju, un tādējādi aktivizēt cilvēka iejaukšanos. Tas ne tikai uzlabo drošību, bet arī palielina lietotāju uzticību AI sistēmām.
capsa_torch.wrapper() kur izvada sastāv no gan prognozes, gan riska:
Secinājums
MIT komanda parāda, ka AI nākotne ne tikai ir par to, lai kļūtu gudrāka, bet arī par drošāku un godīgāku darbību. NetCare uzskata, ka AI kļūst patiesi vērtīgs tikai tad, ja tas ir caurspīdīgs par savām ierobežojumiem. Ar uzlabotiem nenoteiktības kvantifikācijas rīkiem, piemēram, Capsa, jūs varat šo redzējumu īstenot praksē.