Mākslīgā intelekta (AI) pielietojums strauji aug un kļūst arvien ciešāk saistīts ar mūsu ikdienas dzīvi un nozarēm, kurās ir augstas likmes, piemēram, veselības aprūpi, telekomunikācijām un enerģētiku. Taču liels spēks nes arī lielu atbildību: AI sistēmas dažkārt pieļauj kļūdas vai sniedz neskaidras atbildes, kam var būt nopietnas sekas.
Kāpēc tas ir tik svarīgi?
Daudzi AI modeļi, pat progresīvi, dažkārt var izrādīt tā sauktās „halucinācijas” — tie sniedz kļūdainas vai nepamatotas atbildes. Nozarēs, kur lēmumiem ir liels svars, piemēram, medicīniskajā diagnostikā vai autonomajā braukšanā, tam var būt postošas sekas. Themis AI izstrādāja Capsa — platformu, kas izmanto nenoteiktības kvantificēšanu (uncertainty quantification): tā mēra un kvantificē AI izvades nenoteiktību detalizētā un uzticamā veidā.
Kā tas darbojas?
Iemācot modeļiem apzināties nenoteiktību, tie var pievienot izvades datiem riska vai uzticamības marķējumu. Piemēram: pašbraucošs auto var norādīt, ka nav pārliecināts par situāciju, un tādējādi aktivizēt cilvēka iejaukšanos. Tas ne tikai palielina drošību, bet arī lietotāju uzticēšanos AI sistēmām.
capsa_torch.wrapper() kur izvade sastāv gan no prognozes, gan riska:
Secinājums
MIT komanda parāda, ka AI nākotne nav saistīta tikai ar kļūšanu gudrākam, bet galvenokārt ar drošāku un godīgāku darbību. Mēs NetCare uzskatām, ka AI kļūst patiesi vērtīgs tikai tad, ja tas ir caurskatāms attiecībā uz saviem ierobežojumiem. Izmantojot progresīvus nenoteiktības kvantificēšanas rīkus, piemēram, Capsa, jūs varat īstenot šo vīziju praksē.