MIT teeb uurimistööd, et AI-d nutikamaks muuta

MITi meeskond õpetab AI‑mudeleid, mida nad varem ei teadnud.

Tehisintellekti (AI) kasutamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energia. Kuid suure võimuga kaasneb ka suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, mis võivad kaasa tuua tõsiseid tagajärgi.

MIT Themis AI, mida asutas ja juhib professor Daniela Rus CSAIL-laborist, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab AI mudelitel ‘teada, mida nad ei tea’. See tähendab, et AI-süsteemid saavad ise märkida, millal nad on oma prognooside suhtes ebakindlad, vältides vigu enne, kui need kahju tekitavad.

Miks see on nii oluline?
Paljud AI mudelid, isegi kõige arenenumad, võivad mõnikord näidata niinimetatud ‘hallutsinatsioone’ – nad annavad ekslikke või põhjendamatuid vastuseid. Valdkondades, kus otsused on kriitilised, nagu meditsiiniline diagnoosimine või autonoomne sõitmine, võib see põhjustada katastroofilisi tagajärgi. Themis AI lõi Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib AI väljundi ebakindlust üksikasjalikult ja usaldusväärselt.

 Kuidas see töötab?
Kui mudelitele õpetada ebakindluse teadlikkust, saavad nad varustada väljundid riski- või usaldusväärsuse märgisega. Näiteks võib isesõitv auto märkida, et ta ei ole kindel olukorras, ja seetõttu käivitada inimese sekkumise. See suurendab mitte ainult turvalisust, vaid ka kasutajate usaldust AI-süsteemide vastu.

Tehnilise rakenduse näited

  • PyTorchiga integreerimisel toimub mudeli pakkimine läbi capsa_torch.wrapper() kus väljund koosneb nii prognoosist kui ka riskist:

Python example met capsa

TensorFlow mudelite puhul töötab Capsa dekoratiiviga:

tensorflow

Mõju ettevõtetele ja kasutajatele
NetCare'ile ja tema klientidele tähendab see tehnoloogia suurt sammu edasi. Me suudame pakkuda AI-lahendusi, mis on mitte ainult intelligentsed, vaid ka turvalised ja paremini prognoositavad, vähendades hallutsinatsioonide tõenäosust. See aitab organisatsioonidel teha paremini põhjendatud otsuseid ja vähendada riske AI kasutuselevõtul ettevõtte kriitilistes rakendustes.

Järeldus
MIT meeskond näitab, et AI tulevik ei seisne ainult nutikamaks muutumises, vaid eelkõige turvalisemaks ja õiglasemaks toimimises. NetCare usub, et AI muutub tõeliselt väärtuslikuks ainult siis, kui see on oma piirangute suhtes läbipaistev. Tänu täiustatud ebakindluse kvantifitseerimise tööriistadele, nagu Capsa, saate seda visiooni ka praktikas ellu viia.

Gerard

Gerard on aktiivne AI konsultant ja juht. Paljude kogemustega suurtes organisatsioonides suudab ta probleemi eriti kiiresti lahendada ja lahenduse poole liikuda. Kombineerituna majandusliku taustaga tagab ta äriliselt vastutustundlikud otsused.