Primjena umjetne inteligencije (AI) brzo raste i sve je više isprepletena s našim svakodnevnim životom i industrijama visokog rizika poput zdravstva, telekomunikacija i energije. No, s velikom moći dolazi i velika odgovornost: AI sustavi ponekad prave greške ili daju nesigurne odgovore koji mogu imati velike posljedice.
Themis AI s MIT‑a, suosnovan i vođen od strane profesorice Daniele Rus iz CSAIL‑laboratorija, nudi revolucionarno rješenje. Njihova tehnologija omogućuje AI modelima da ‘znaju što ne znaju’. To znači da AI sustavi sami mogu naznačiti kada su nesigurni u svoje prognoze, čime se greške mogu spriječiti prije nego što uzrokuju štetu.
Zašto je ovo tako važno?
Mnogi AI modeli, čak i napredni, ponekad mogu pokazati takozvane ‘halucinacije’ – daju pogrešne ili neosnovane odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnostike ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI je razvio Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti: mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.
Kako to funkcionira?
Uvođenjem svijesti o nesigurnosti u modele, oni mogu označiti izlaze oznakom rizika ili pouzdanosti. Na primjer, autonomno vozilo može naznačiti da nije sigurno u vezi situacije i stoga aktivirati ljudsku intervenciju. To ne samo da povećava sigurnost, već i povjerenje korisnika u AI sustave.
capsa_torch.wrapper() pri čemu izlaz se sastoji i od predviđanja i od rizika:

Zaključak
MIT tim pokazuje da budućnost AI nije samo u tome da postane pametnija, već i da funkcionira sigurnije i pravednije. U NetCareu vjerujemo da AI postaje zaista vrijedna tek kada je transparentna u vezi vlastitih ograničenja. Uz napredne alate za kvantifikaciju nesigurnosti poput Capsa, i vi možete tu viziju pretvoriti u praksu.