MIT doet onderzoek om AI slimmer te maken

MIT-meeskond õpetab AI-mudelitele asju, mida need veel ei teadnud.

Tehisintellekti (AI) kasutus kasvab kiiresti ja muutub üha enam lõimunuks meie igapäevaeluga ning kõrge riskiga tööstusharudega nagu tervishoid, telekommunikatsioon ja energia. Kuid suure jõuga kaasneb ka suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võib olla tõsiseid tagajärgi.

MITi Themis AI, mida kaasasutab ja juhib CSAIL-labori professori Daniela Rus, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab AI-mudelitel „teada, mida nad ei tea“. See tähendab, et AI-süsteemid suudavad ise märgata, kui nad on oma ennustustes ebakindlad, võimaldades vigu ennetada enne, kui need kahju tekitavad.

Miks on see nii oluline?
Paljud AI-mudelid, isegi arenenud mudelid, võivad mõnikord näidata nii-öelda „hallutsinatsioone“ — nad annavad vale või põhjendamata vastuseid. Otsuste võtmisel, kus panused on kõrged, näiteks meditsiinidiagnostika või autonoomne sõit, võib see kaasa tuua katastroofilisi tagajärgi. Themis AI arendas Capsa platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib AI-väljundi ebakindlust detailse ja usaldusväärse lähenemisega.

 Kuidas see toimib?
Õpetades mudelitele ebakindluse teadlikkust, saavad need varustada väljundeid riskivõi usaldusväärsusmärgendiga. Näiteks võib isesõitev auto märkida, et ta ei ole mingi olukorra suhtes kindel, ja seetõttu kutsuda esile inimsekkumise. See tõstab mitte ainult ohutust, vaid ka kasutajate usaldust AI-süsteemide vastu.

Tehnilise rakenduse näited

  • PyTorchi integreerimisel toimub mudeli ümbris järgmiselt capsa_torch.wrapper() kus väljund koosneb nii ennustusest kui riskist:

Python example met capsa

TensorFlow-mudelite puhul töötab Capsa dekoratsiooniga:

tensorflow

Mõju ettevõtetele ja kasutajatele
NetCare’i ja tema klientide jaoks tähendab see tehnoloogia tohutut sammu edasi. Me suudame pakkuda AI-lahendusi, mis pole mitte ainult intelligentsed, vaid ka turvalisemad ja paremini etteennustatavad, vähendades hallutsinatsioonide riski. See aitab organisatsioonidel teha paremini põhjendatud otsuseid ja vähendada riske AI kasutuselevõtul ärikriitilistes rakendustes.

Järeldus
MIT meeskond näitab, et AI tulevik ei seisne ainult nutikamaks saamisel, vaid eelkõige turvalisemal ja õiglasemal toimimisel. NetCare’is usume, et AI muutub tõeliselt väärtuslikuks alles siis, kui see on oma piiride osas läbipaistev. Täpsema ebakindluse kvantifitseerimise tööriistade, nagu Capsa, abil saate selle visiooni ka praktikas rakendada.

Gerard

Gerard töötab AI-konsultandi ja -juhina. Suure kogemusega suurtes organisatsioonides suudab ta kiiresti probleemi lahti harutada ja lahenduse suunas liikuda. Majanduslik taust tagab äriliselt põhjendatud otsused.