Primjena umjetne inteligencije (AI) brzo raste i sve je više isprepletena s našim svakodnevnim životom i industrijama visokog rizika poput zdravstva, telekomunikacija i energije. No, s velikom snagom dolazi i velika odgovornost: AI sustavi ponekad prave greške ili daju nesigurne odgovore koji mogu imati velike posljedice.
Zašto je ovo tako važno?
Mnogi AI modeli, čak i napredni, ponekad mogu pokazati takozvane „halucinacije“ — daju netočne ili neosnovane odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnoze ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI je razvio Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti: mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.
Kako to funkcionira?
Uvođenjem svijesti o nesigurnosti u modele, oni mogu označiti izlaze oznakom rizika ili pouzdanosti. Na primjer, autonomno vozilo može naznačiti da nije sigurno u vezi situacije i stoga aktivirati ljudsku intervenciju. To ne povećava samo sigurnost, već i povjerenje korisnika u AI sustave.
capsa_torch.wrapper() pri čemu izlaz se sastoji i od predviđanja i od rizika:
Zaključak
MIT tim pokazuje da budućnost AI nije samo u postajanju pametnijim, već i u sigurnijem i pravednijem funkcioniranju. U NetCareu vjerujemo da AI postaje zaista vrijedna tek kada je transparentna u vezi vlastitih ograničenja. Uz napredne alate za kvantifikaciju nesigurnosti poput Capsa, ovu viziju možete i u praksi ostvariti.