Dirbtinio intelekto (DI) taikymas sparčiai auga ir vis labiau susipina su mūsų kasdieniu gyvenimu bei aukšto rizikos pramone, tokia kaip sveikatos apsauga, telekomunikacijos ir energetika. Tačiau su didžiule galia ateina ir didelė atsakomybė: DI sistemos kartais daro klaidas arba suteikia neaiškius atsakymus, kurie gali turėti rimtų pasekmių.
Kodėl tai taip svarbu?
Daugelis DI modelių, net ir pažangių, kartais gali rodyti vadinamas „halucinacijas“ – jos pateikia klaidingus arba nepagrįstus atsakymus. Sektoriuose, kur sprendimai turi didelę svarbą, pavyzdžiui, medicininė diagnozė ar autonominis vairavimas, tai gali turėti katastrofiškų pasekmių. Themis AI sukūrė Capsa, platformą, kuri taiko neapibrėžtumo kiekybės matavimą: ji matuoja ir kiekybiškai įvertina DI išvesties neapibrėžtumą detaliai ir patikimai.
Kaip tai veikia?
Įdėjus modeliams neapibrėžtumo suvokimą, jie gali suteikti išvestims rizikos arba patikimumo žymą. Pavyzdžiui, savarankiškai važiuojantis automobilis gali nurodyti, kad nesureikia situacijos ir todėl aktyvuoti žmogaus intervenciją. Tai ne tik padidina saugumą, bet ir sustiprina vartotojų pasitikėjimą DI sistemomis.
capsa_torch.wrapper() kur išvestis susideda tiek iš prognozės, tiek iš rizikos:
Išvada
MIT komanda parodo, kad DI ateitis neapsiriboja tik tapti protingesne, bet ypač saugesne ir teisingesne. NetCare tikime, kad DI tampa tikrai vertinga, kai ji yra skaidri dėl savo apribojimų. Naudodami pažangias neapibrėžtumo kiekybės įrankius, tokius kaip Capsa, galite šią viziją įgyvendinti praktikoje.