MIT uurib, kuidas muuta tehisintellekti nutikamaks

MIT-i meeskond õpetab AI-mudelitele seda, mida nad veel ei teadnud.

Tehisintellekti (AI) rakendamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskitasemega valdkondadega, nagu tervishoid, telekommunikatsioon ja energeetika. Kuid suure võimuga kaasneb suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võivad olla tõsised tagajärjed.

Miks on see nii oluline?
Paljud AI-mudelid, isegi arenenud mudelid, võivad mõnikord ilmutada nn hallutsinatsioone – nad annavad ekslikke või põhjendamata vastuseid. Sektorites, kus otsustel on suur kaal, nagu meditsiiniline diagnoosimine või autonoomne sõitmine, võib see tuua kaasa katastroofilisi tagajärgi. Themis AI töötas välja Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist (uncertainty quantification): see mõõdab ja kvantifitseerib AI väljundi ebakindlust detailsel ja usaldusväärsel viisil.

 Kuidas see töötab?
Õpetades mudelitele ebakindluse teadvustamist, saavad nad väljunditele lisada riski- või usaldusväärsuse märgise. Näiteks: isejuhtiv auto võib anda märku, et pole olukorras kindel, ja seetõttu aktiveerida inimese sekkumise. See suurendab mitte ainult ohutust, vaid ka kasutajate usaldust AI-süsteemide vastu.

Näited tehnilisest rakendamisest
  • PyTorchi integreerimisel toimub mudeli mähkimine (wrapping) järgmiselt: capsa_torch.wrapper() kus väljund koosneb nii ennustusest kui ka riskist:
Python example met capsa
TensorFlow mudelite puhul töötab Capsa dekoraatoriga:
tensorflow
Mõju ettevõtetele ja kasutajatele
NetCare'i ja selle klientide jaoks tähendab see tehnoloogia tohutut sammu edasi. Suudame pakkuda AI-lahendusi, mis pole mitte ainult intelligentsed, vaid ka ohutud ja paremini prognoositavad, vähendades hallutsinatsioonide ohtu. See aitab organisatsioonidel teha paremini põhjendatud otsuseid ja vähendada riske AI juurutamisel ärikriitilistes rakendustes.

Kokkuvõte
MIT meeskond näitab, et AI tulevik ei seisne ainult targemaks saamises, vaid eelkõige ohutumalt ja ausamalt toimimises. NetCare'is usume, et AI muutub tõeliselt väärtuslikuks alles siis, kui see on oma piirangute osas läbipaistev. Täiustatud ebakindluse kvantifitseerimise tööriistadega, nagu Capsa, saate selle visiooni ka praktikas ellu viia.

Gerard

Gerard on aktiivne AI konsultant ja juht. Paljude kogemustega suurtes organisatsioonides suudab ta eriti kiiresti probleemi lahti harutada ja lahenduse poole püüelda. Kombineerides majandustausta, teeb ta äriliselt vastutustundlikke valikuid.