MIT uurib, kuidas muuta tehisintellekti targemaks

MIT-meeskond õpetab tehisintellekti mudelitele midagi uut.

Tehisintellekti (AI) kasutamine kasvab kiiresti ja on üha enam põimunud meie igapäevaelu ja kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energeetika. Kuid suurele väele kaasneb ka suur vastutus: tehisintellekti süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võivad olla suured tagajärjed.

MIT-i Themis AI, mille kaasasutaja ja juht on professor Daniela Rus CSAIL-laborist, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab AI-mudelitel „teada, mida nad ei tea“. See tähendab, et tehisintellekti süsteemid saavad ise anda märku, kui nad on oma ennustustes ebakindlad, võimaldades vältida vigu enne, kui need kahju tekitavad.

Miks see nii oluline on?
Paljud AI-mudelid, isegi keerukad, võivad aeg-ajalt ilmutada nn „hallutsinatsioone“ – nad annavad valesid või põhjendamatuid vastuseid. Valdkondades, kus otsustel on suur kaal, nagu meditsiiniline diagnoos või autonoomne sõit, võib see olla katastroofiliste tagajärgedega. Themis AI arendas välja Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist (uncertainty quantification): see mõõdab ja kvantifitseerib AI väljundi ebakindlust üksikasjalikul ja usaldusväärsel viisil.

 Kuidas see töötab?
Mudelitele ebakindluse teadlikkuse õpetamisega saab väljunditele lisada riski- või usaldusväärsusmärgise. Näiteks võib isejuhtiv auto anda märku, et ta ei ole olukorras kindel, ja seetõttu aktiveerida inimsekkumise. See suurendab mitte ainult ohutust, vaid ka kasutajate usaldust tehisintellekti süsteemidesse.

Tehnilise rakendamise näited

  • PyTorchiga integreerimisel hõlmab mudeli mähkimine capsa_torch.wrapper() kus väljund koosneb nii ennustusest kui ka riskist:

Python example met capsa

TensorFlow mudelite jaoks kasutab Capsa dekoraatorit:

tensorflow

Mõju ettevõtetele ja kasutajatele
Selle tehnoloogia tähendab NetCare'i ja selle klientide jaoks tohutut edusammu. Saame pakkuda tehisintellekti rakendusi, mis pole mitte ainult intelligentsed, vaid ka turvalised ja paremini ennustatavad, vähendades hallutsinatsioonide ohtu. See aitab organisatsioonidel teha paremini põhjendatud otsuseid ja vähendada riske tehisintellekti kasutuselevõtul ärikriitilistes rakendustes.

Kokkuvõte
MIT meeskond näitab, et tehisintellekti tulevik ei seisne ainult targemaks saamises, vaid eelkõige ka turvalisemas ja õiglasemas toimimises. NetCare'is usume, et tehisintellekt muutub tõeliselt väärtuslikuks alles siis, kui see on oma piirangute osas läbipaistev. Tänu sellistele täiustatud ebakindluse kvantifitseerimise tööriistadele nagu Capsa saate seda visiooni ka praktikas ellu viia.

Gerard

Gerard tegutseb tehisintellekti konsultandi ja juhina. Suurte organisatsioonidega töötamise kogemuse põhjal suudab ta erakordselt kiiresti probleemi lahti harutada ja lahenduse poole liikuda. Kombineerituna majandusliku taustaga tagab ta äriliselt põhjendatud valikud.

AIR (Kunstlik Luure Robot)