MIT teeb uurimistööd, et AI nutikamaks muuta

MITi meeskond õpetab AI-mudeleid asju, mida nad veel ei teadnud.

Tehisintellekti (AI) kasutamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energia. Kuid suure võimuga kaasneb ka suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, mis võivad põhjustada tõsiseid tagajärgi.

Miks see on nii oluline?
Paljud AI mudelid, isegi täiustatud, võivad mõnikord näidata niinimetatud „hallutsinatsioone“ — nad annavad ekslikke või põhjendamatuid vastuseid. Sektoritena, kus otsused on väga olulised, nagu meditsiiniline diagnoosimine või autonoomne sõitmine, võib see põhjustada katastroofilisi tagajärgi. Themis AI lõi Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib AI väljundi ebakindlust üksikasjalikult ja usaldusväärselt.

 Kuidas see töötab?
Kui mudelitele õpetada ebakindluse teadlikkust, saavad nad väljunditele lisada riski- või usaldusväärsuse sildi. Näiteks võib isesõitv auto märkida, et ta ei ole olukorra suhtes kindel, ja seetõttu käivitada inimese sekkumise. See suurendab mitte ainult turvalisust, vaid ka kasutajate usaldust AI-süsteemide vastu.

Tehnilise rakenduse näited
  • PyTorchi integreerimisel toimub mudeli pakkimine läbi capsa_torch.wrapper() kus väljund koosneb nii prognoosist kui ka riskist:
Python example met capsa
TensorFlow mudelite puhul töötab Capsa dekoratiiviga:
TensorFlow
Mõju ettevõtetele ja kasutajatele
NetCare'ile ja tema klientidele tähendab see tehnoloogia suurt sammu edasi. Me suudame pakkuda AI-lahendusi, mis on mitte ainult intelligentsed, vaid ka turvalised ja paremini prognoositavad, vähendades hallutsinatsioonide tõenäosust. See aitab organisatsioonidel teha paremini põhjendatud otsuseid ja vähendada riske AI kasutuselevõtul ettevõtte kriitilistes rakendustes.

Järeldus
MIT meeskond näitab, et AI tulevik ei seisne ainult nutikamaks muutumises, vaid eelkõige turvalisemaks ja õiglasemaks toimimises. NetCare usub, et AI muutub tõeliselt väärtuslikuks ainult siis, kui see on oma piirangute suhtes läbipaistev. Tänu täiustatud ebakindluse kvantifitseerimise tööriistadele, nagu Capsa, saate seda visiooni ka praktikas ellu viia.

Gerard

Gerard on aktiivne AI konsultant ja juht. Paljude kogemustega suurtes organisatsioonides suudab ta probleemi eriti kiiresti lahendada ja lahenduse poole liikuda. Kombineerides majandusalast tausta, teeb ta äriliselt vastutustundlikke valikuid.