Primjena umjetne inteligencije (AI) brzo raste i postaje sve više isprepletena s našim svakodnevnim životom i industrijama visokog rizika kao što su zdravstvo, telekomunikacije i energetika. No, s velikom moći dolazi i velika odgovornost: AI sustavi ponekad griješe ili daju nesigurne odgovore koji mogu imati ozbiljne posljedice.
Zašto je to toliko važno?
Mnogi AI modeli, čak i oni napredni, ponekad mogu pokazati takozvane 'halucinacije'—daju netočne ili neutemeljene odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnostike ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI razvio je Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti: ona mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.
Kako to funkcionira?
Uvođenjem svjesnosti o nesigurnosti (uncertainty awareness) u modele, oni mogu opremiti svoje izlaze oznakom rizika ili pouzdanosti. Na primjer: samovozeći automobil može naznačiti da nije siguran u situaciju i stoga aktivirati ljudsku intervenciju. To ne povećava samo sigurnost, već i povjerenje korisnika u AI sustave.
capsa_torch.wrapper() pri čemu se izlaz sastoji od predviđanja i rizika:
Zaključak
Tim s MIT-a tim pokazuje da budućnost AI-a nije samo u tome da postane pametniji, već prije svega u sigurnijem i poštenijem funkcioniranju. U NetCareu vjerujemo da AI postaje uistinu vrijedan tek kada je transparentan o vlastitim ograničenjima. Uz napredne alate za kvantifikaciju nesigurnosti kao što je Capsa, tu viziju možete provesti u praksu.