Primjena umjetne inteligencije (AI) brzo raste i postaje sve više isprepletena s našim svakodnevnim životom i industrijama visokog rizika kao što su zdravstvo, telekomunikacije i energetika. No, s velikom moći dolazi i velika odgovornost: AI sustavi ponekad griješe ili daju nesigurne odgovore koji mogu imati ozbiljne posljedice.
Zašto je ovo toliko važno?
Mnogi AI modeli, čak i oni napredni, ponekad mogu pokazati takozvane 'halucinacije'—daju netočne ili neutemeljene odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnostike ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI razvio je Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti (uncertainty quantification): ona mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.
Kako to funkcionira?
Uvođenjem svjesnosti o nesigurnosti (uncertainty awareness) u modele, oni mogu svojim izlazima dodijeliti oznaku rizika ili pouzdanosti. Na primjer: autonomni automobil može naznačiti da nije siguran u situaciju i stoga aktivirati ljudsku intervenciju. To ne povećava samo sigurnost, već i povjerenje korisnika u AI sustave.
capsa_torch.wrapper() pri čemu se izlaz sastoji od predviđanja i rizika:
Zaključak
MIT tim pokazuje da budućnost AI-a nije samo u tome da postane pametniji, već prije svega u sigurnijem i poštenijem funkcioniranju. U NetCareu vjerujemo da AI postaje istinski vrijedan tek kada je transparentan o vlastitim ograničenjima. S naprednim alatima za kvantifikaciju nesigurnosti kao što je Capsa, tu viziju možete provesti u praksu.