Dirbtinio intelekto (DI) taikymas sparčiai auga ir vis labiau įsilieja į mūsų kasdienį gyvenimą bei svarbias pramonės šakas, tokias kaip sveikatos priežiūra, telekomunikacijos ir energetika. Tačiau su didele galia ateina ir didelė atsakomybė: DI sistemos kartais daro klaidas arba pateikia neaiškius atsakymus, kurie gali turėti rimtų pasekmių.
Kodėl tai taip svarbu?
Daugelis DI modelių, net ir pažangių, kartais gali rodyti vadinamąsias „haliucinacijas“ – jie pateikia klaidingus ar nepagrįstus atsakymus. Sektoriuose, kuriuose sprendimai turi didelį svorį, pavyzdžiui, medicininės diagnostikos ar autonominio vairavimo srityse, tai gali turėti pražūtingų pasekmių. „Themis AI“ sukūrė „Capsa“ – platformą, kuri taiko neapibrėžtumo kiekybinį įvertinimą (angl. uncertainty quantification): ji detaliai ir patikimai matuoja bei kiekybiškai įvertina DI išvesties neapibrėžtumą.
Kaip tai veikia?
Išmokius modelius suvokti neapibrėžtumą, jie gali pateikti rezultatus su rizikos arba patikimumo žyma. Pavyzdžiui: autonominis automobilis gali nurodyti, kad nėra tikras dėl situacijos, ir todėl inicijuoti žmogaus įsikišimą. Tai padidina ne tik saugumą, bet ir vartotojų pasitikėjimą DI sistemomis.
capsa_torch.wrapper() kur išvestį sudaro tiek prognozė, tiek rizika:
Išvada
MIT komanda parodo, kad DI ateitis priklauso ne tik nuo to, kaip tapti protingesniam, bet visų pirma nuo to, kaip veikti saugiau ir sąžiningiau. „NetCare“ tikime, kad DI tampa tikrai vertingas tik tada, kai jis yra skaidrus dėl savo paties apribojimų. Naudodami pažangius neapibrėžtumo kiekybinio įvertinimo įrankius, tokius kaip „Capsa“, galite šią viziją įgyvendinti praktiškai.