MIT qed jagħmel riċerka biex jagħmel l-AI aktar intelliġenti

It-tim MIT jgħallem mudelli AI dak li għadhom ma jafu.

L-applikazzjoni tal-intelliġenza artifiċjali (AI) tikber malajr u tintgħaqqad dejjem aktar ma’ ħajjitna ta’ kuljum u industriji ta’ riskju għoli bħal kura tas-saħħa, telecomunikazzjonijiet u enerġija. Imma ma’ qawwa kbira tiġi wkoll responsabbiltà kbira: is-sistemi AI xi drabi jagħmlu żbalji jew jagħtu tweġibiet inċerti li jistgħu jkollhom konsegwenzi serji.

Themis AI tal-MIT, li ġie ko-iffettwat u imexxi mill-professur Daniela Rus mill-laboratorju CSAIL, joffri soluzzjoni rivoluzzjonarja. It-teknoloġija tagħhom tippermetti lill-mudelli AI li ‘jafu dak li ma jafu’. Dan ifisser li s-sistemi AI jistgħu jindikaw meta jkunu inċerti dwar il-foresti tagħhom, b’hekk jevitaw żbalji qabel ma jikkawżaw ħsara.

Għalfejn huwa tant importanti?
Ħafna mudelli AI, anki avvanzati, jistgħu xi kultant juru dak li jissejjaħ ‘hallucinazzjonijiet’—jagħtu tweġibiet żbaljati jew mhux fundamentati. F’setturi fejn id-deċiżjonijiet għandhom impatt kbir, bħal dijanjostika medika jew sewqan awtonomu, dan jista’ jkollu konsegwenzi katastrofiċi. Themis AI ħareġ Capsa, pjattaforma li tapplika kwantifikazzjoni tal-inkertità: tkejjel u tkwantifika l-inkertità tal-output tal-AI b’mod dettaljat u affidabbli.

 Kif jaħdem?
Billi nintroduċu għarfien tal-inkertità fil-mudelli, jistgħu jagħtu l-output label ta’ riskju jew affidabbiltà. Per eżempju: karozza awtonoma tista’ tindika li mhix ċerta dwar sitwazzjoni u għalhekk tattiva intervent human. Dan mhux biss itejjeb is-sigurtà, iżda wkoll ittaffija tal-utenti lejn is-sistemi AI.

Eżempji ta' implimentazzjoni teknika

  • Meta l-integrazzjoni ma’ PyTorch, il-wrapping tal-mudell isir permezz ta’ capsa_torch.wrapper() fejn l-output jikkonsisti kemm fil-foresta kif ukoll fir-riskju:

Python example met capsa

Għal mudelli TensorFlow, Capsa jaħdem b’dikoratatur:

TensorFlow

L-impatt għall-impriżi u l-utenti
Għal NetCare u l-klijenti tagħha din it-teknoloġija tfisser pass enorm lejn il-quddiem. Nistgħu nipprovdu applikazzjonijiet AI li mhux biss huma intelliġenti, iżda wkoll sikuri u aktar prevedibbli b’inqas probabilità ta’ hallucinazzjonijiet. Dan jgħin lill-organizzazzjonijiet jieħdu deċiżjonijiet aħjar fundamentati u jnaqqas ir-riskji meta jintroduċu AI f’applicazzjonijiet kritiċi għall-negozju.

Konklużjoni
Il-MIT tim juri li l-futur tal-AI mhux biss jiddependi fuq li jsir aktar intelliġenti, iżda wkoll fuq li jaħdem b’mod aktar sigur u ġust. F’NetCare nemmen li l-AI ssir verament ta’ valur biss jekk ikun trasparent dwar il-limiti tiegħu. B’tools avvanzati ta’ kwantifikazzjoni tal-inkertità bħal Capsa, tista’ timplimenta din il-viżjoni wkoll fil-prattika.

Gerard

Gerard huwa attiv bħala konsulent AI u maniġer. B’ħafna esperjenza f’organizzazzjonijiet kbar, jista’ jiskopri problema b’mod rapidu u jiffoka lejn soluzzjoni. Kombinat ma’ sfond ekonomiku, jiżgura għażliet responsabbli fin-negozju.