MIT atlieka tyrimus, kaip padaryti dirbtinį intelektą protingesnį

MIT komanda moko dirbtinio intelekto modelius to, ko jie dar nežinojo.

Dirbtinio intelekto (DI) taikymas sparčiai auga ir vis labiau įsiskverbia į mūsų kasdienį gyvenimą bei kritiškai svarbias pramonės šakas, tokias kaip sveikatos apsauga, telekomunikacijos ir energetika. Tačiau su didele galia ateina ir didelė atsakomybė: DI sistemos kartais daro klaidas arba pateikia neaiškius atsakymus, kurie gali turėti didelių pasekmių.

MIT „Themis AI“, kurį bendrai įkūrė ir vadovauja profesorė Daniela Rus iš CSAIL laboratorijos, siūlo novatorišką sprendimą. Jų technologija leidžia DI modeliams „žinoti, ko jie nežino“. Tai reiškia, kad DI sistemos pačios gali nurodyti, kada jos yra neįsitikinusios savo prognozėmis, taip užkertant kelią klaidoms, kol jos nespėjo padaryti žalos.

Kodėl tai taip svarbu?
Daugelis DI modelių, net ir pažangiausių, kartais gali demonstruoti vadinamuosius „haliucinacijas“ – jie pateikia klaidingus ar nepagrįstus atsakymus. Sektoriuose, kur sprendimai yra itin svarbūs, pavyzdžiui, medicininės diagnozės ar autonominio vairavimo srityse, tai gali turėti pražūtingų pasekmių. „Themis AI“ sukūrė „Capsa“ – platformą, kuri taiko neapibrėžtumo kiekybinį įvertinimą: ji detaliai ir patikimai matuoja bei kiekybiškai įvertina DI pateiktų rezultatų neapibrėžtumą.

 Kaip tai veikia?
Suteikus modeliams neapibrėžtumo suvokimą, jų išvestis galima papildyti rizikos ar patikimumo žyma. Pavyzdžiui, autonominis automobilis gali nurodyti, kad nėra tikras dėl situacijos, ir todėl suaktyvinti žmogaus įsikišimą. Tai ne tik padidina saugumą, bet ir vartotojų pasitikėjimą DI sistemomis.

Techninės įgyvendinimo pavyzdžiai

  • Integruojant su „PyTorch“, modelio įvyniojimas per capsa_torch.wrapper() kai išvestis apima tiek prognozę, tiek riziką:

Python example met capsa

„TensorFlow“ modeliams „Capsa“ naudoja dekoratorių:

tensorflow

Poveikis įmonėms ir vartotojams
Ši technologija NetCare ir jos klientams reiškia didžiulį žingsnį į priekį. Mes galime pateikti dirbtinio intelekto (DI) sprendimus, kurie yra ne tik protingi, bet ir saugūs bei labiau nuspėjami, su mažesne haliucinacijų tikimybe. Tai padeda organizacijoms priimti geriau pagrįstus sprendimus ir sumažinti riziką diegiant DI kritinės svarbos verslo programose.

Išvada
MIT komanda parodo, kad dirbtinio intelekto ateitis sukasi ne tik apie protingėjimą, bet visų pirma apie saugesnį ir teisingesnį veikimą. „NetCare“ mes tikime, kad DI tampa tikrai vertingas tik tada, kai jis yra skaidrus dėl savo apribojimų. Su pažangiais netikrumo kiekybės nustatymo įrankiais, tokiais kaip „Capsa“, jūs taip pat galite įgyvendinti šią viziją praktiškai.

Gerardas

Gerardas dirba dirbtinio intelekto (DI) konsultantu ir vadovu. Turėdamas didelę patirtį dirbant su didelėmis organizacijomis, jis gali itin greitai išnarplioti problemą ir rasti sprendimą. Kartu su ekonominiu išsilavinimu jis užtikrina verslo požiūriu pagrįstus sprendimus.

AIR (Dirbtinio intelekto robotas)