MIT doet onderzoek om AI slimmer te maken

Tim MIT jgħallem lill-mudelli ta’ AI dak li ma kinux jafu.

L-applikazzjoni tal-intelliġenza artifiċjali (AI) qed tikber malajr u qed tintegra dejjem aktar fil-ħajja tagħna ta’ kuljum u f’industriji ta’ rischju għoli bħal kura tas-saħħa, telecom u enerġija. Iżda b’qawwa kbira jasal ukoll responsabbiltà kbira: is-sistemi AI kultant jagħmlu żbalji jew jagħtu tweġibiet inċerti li jistgħu jkollhom konsegwenzi kbar.

Themis AI tal-MIT, stabbilita u mmexxija parzjalment mill-professur Daniela Rus mill-laboratorju CSAIL, toffri soluzzjoni innovattiva. It-teknoloġija tagħhom tippermetti lill-mudelli AI “jafu dak li ma jafuhx”. Dan ifisser li s-sistemi AI jistgħu jwasslu meta huma inċerti dwar il-previżjonijiet tagħhom, u b’hekk jiġu evitati żbalji qabel ma jikkawżaw ħsara.

Għaliex dan hu daqstant importanti?
Ħafna mudelli AI, anke avvanzati, kultant juru dak li jissejjaħ “hallucinations” — jagħtu tweġibiet żbaljati jew bla bażi. F’sezzjonijiet fejn id-deċiżjonijiet għandhom impatt kbir, bħal dijanjosi medika jew sewwieq awtonomu, dan jista’ jkollu konsegwenzi katastrofiċi. Themis AI żviluppat Capsa, pjattaforma li tapplika uncertainty quantification: tapprezza u tkunċifika l-inċertezza tal-output tal-AI b’mod dettaljat u affidabbli.

 Kif jaħdem?
Billi jgħallmu lill-mudelli awareness tal-inċertezza, jistgħu jipprovdu output b’lebel ta’ riskju jew affidabilità. Per eżempju: karawwa awtonoma tista’ tindika li mhix ċerta dwar sitwazzjoni u b’konsegwenza tistieden intervent uman. Dan mhux biss jiżdied is-sigurtà, imma wkoll jitjieb il-fiduċja tal-utenti fis-sistemi AI.

Eżempji ta’ implimentazzjoni teknika

  • Meta tintegra ma’ PyTorch, il-wrapping tal-mudell isir permezz ta’ capsa_torch.wrapper() billi l-output jikkonsisti kemm minn previżjoni kif ukoll mir-riskju:

Python example met capsa

Għal mudelli TensorFlow Capsa taħdem permezz ta’ decorator:

tensorflow

L-impatt għal kumpaniji u utenti
Għal NetCare u l-klijenti tagħha din it-teknoloġija tfisser pass kbir 'il quddiem. Nistgħu nwasslu applikazzjonijiet AI li mhumiex biss intelliġenti, iżda wkoll sikuri u aktar prevedibbli b’inqas ċans ta’ hallucinations. Dan jgħin lill-organizzazzjonijiet jagħmlu deċiżjonijiet aktar bbażati u jnaqqas ir-riskji meta jintroduċu l-AI f’applikazzjonijiet kritiċi għall-impjiegi.

Konklużjoni
Il-MIT tim jurih li l-futur tal-AI ma jiffokax biss fuq li ssir iktar intelliġenti, iżda prinċipalment fuq kif taħdem b’mod aktar sikur u ġust. F’NetCare nemmnu li l-AI tassew issir ta’ valur meta tkun trasparenti dwar il-limitazzjonijiet tagħha. B’għodda avvanzati ta’ uncertainty quantification bħal Capsa tista’ twettaq dik il-viżjoni fil-prattika.

Gerard

Gerard jaħdem bħala konsulent u maniġer tal-AI. Bil-ħafna esperjenza f'organizzazzjonijiet kbar, hu kapaċi jiddisgħa problemi malajr u jmexxi lejn soluzzjonijiet. Ma' sfond fl-ekonomija, hu jagħmel għażliet b'sens tan-negozju.