Dirbtinio intelekto (DI) taikymas sparčiai auga ir vis labiau įsiskverbia į mūsų kasdienį gyvenimą bei kritiškai svarbias pramonės šakas, tokias kaip sveikatos apsauga, telekomunikacijos ir energetika. Tačiau su didele galia ateina ir didelė atsakomybė: DI sistemos kartais daro klaidas arba pateikia neaiškius atsakymus, kurie gali turėti didelių pasekmių.
MIT „Themis AI“, kurį bendrai įkūrė ir vadovauja profesorė Daniela Rus iš CSAIL laboratorijos, siūlo novatorišką sprendimą. Jų technologija leidžia DI modeliams „žinoti, ko jie nežino“. Tai reiškia, kad DI sistemos pačios gali nurodyti, kada jos yra neįsitikinusios savo prognozėmis, taip užkertant kelią klaidoms, kol jos nespėjo padaryti žalos.
Kodėl tai taip svarbu?
Daugelis DI modelių, net ir pažangiausių, kartais gali demonstruoti vadinamuosius „haliucinacijas“ – jie pateikia klaidingus ar nepagrįstus atsakymus. Sektoriuose, kur sprendimai yra itin svarbūs, pavyzdžiui, medicininės diagnozės ar autonominio vairavimo srityse, tai gali turėti pražūtingų pasekmių. „Themis AI“ sukūrė „Capsa“ – platformą, kuri taiko neapibrėžtumo kiekybinį įvertinimą: ji detaliai ir patikimai matuoja bei kiekybiškai įvertina DI pateiktų rezultatų neapibrėžtumą.
Kaip tai veikia?
Suteikus modeliams neapibrėžtumo suvokimą, jų išvestis galima papildyti rizikos ar patikimumo žyma. Pavyzdžiui, autonominis automobilis gali nurodyti, kad nėra tikras dėl situacijos, ir todėl suaktyvinti žmogaus įsikišimą. Tai ne tik padidina saugumą, bet ir vartotojų pasitikėjimą DI sistemomis.
capsa_torch.wrapper() kai išvestis apima tiek prognozę, tiek riziką:

Išvada
MIT komanda parodo, kad dirbtinio intelekto ateitis sukasi ne tik apie protingėjimą, bet visų pirma apie saugesnį ir teisingesnį veikimą. „NetCare“ mes tikime, kad DI tampa tikrai vertingas tik tada, kai jis yra skaidrus dėl savo apribojimų. Su pažangiais netikrumo kiekybės nustatymo įrankiais, tokiais kaip „Capsa“, jūs taip pat galite įgyvendinti šią viziją praktiškai.