L-applikazzjoni tal-intelliġenza artifiċjali (AI) qed tikber malajr u qed tintegra dejjem aktar fil-ħajja ta' kuljum u fl-industriji kritiċi bħal kura tas-saħħa, telecomunikazzjonijiet u enerġija. Imma ma' qawwa kbira tiġi wkoll responsabbiltà kbira: sistemi AI xi drabi jagħmlu żbalji jew jagħtuk tweġibiet inċerti li jistgħu jkunu b'konsegwenzi serji.
Għalfejn huwa tant importanti?
Ħafna mudelli AI, anke avvanzati, jistgħu xi kultant juru dak li jissejjaħ ‘hallucinazzjonijiet’—jagħtu tweġibiet żbaljati jew mhux fundamentati. F'setturi fejn id-deċiżjonijiet huma kritiċi, bħal dijanjostik mediku jew sewqan awtonomu, dan jista' jkollu konsegwenzi katastrofiċi. Themis AI ħareġ Capsa, pjattaforma li tapplika l-kwantifikazzjoni tal-inkertitudni: tkejjel u tkwantifika l-inkertitudni tal-output tal-AI b'mod dettaljat u affidabbli.
Kif jaħdem?
Billi nintroduċu għarfien tal-inkertitudni fil-mudelli, jistgħu jagħtu l-output tagħhom etiketta ta' riskju jew affidabbiltà. Per eżempju: karozza awtonoma tista' tindika li mhix ċerta dwar sitwazzjoni u għalhekk tattiva intervent ta' persuna. Dan mhux biss itejjeb is-sigurtà, iżda wkoll it-tfidda tal-utenti fis-sistemi AI.
capsa_torch.wrapper() fejn l-output jikkonsisti kemm fil-previżjoni kif ukoll fir-riskju:
Konklużjoni
Il-MIT tim juri li l-futur tal-AI ma jikkonċentrax biss fuq li jkun aktar intelliġenti, iżda wkoll fuq li jiffunzjona b'mod aktar sigur u ġust. F'NetCare nemmen li l-AI isir verament ta' valur biss jekk ikun trasparent dwar il-limiti tiegħu. B'għodod avvanzati ta' kwantifikazzjoni tal-inkertitudni bħal Capsa, tista' timplimenta din il-viżjoni fil-prattika.