Primjena umjetne inteligencije (AI) brzo raste i sve se više isprepliće s našim svakodnevnim životom i industrijama s visokim ulozima, poput zdravstva, telekoma i energetike. No, s velikom moći dolazi i velika odgovornost: AI sustavi ponekad griješe ili daju nesigurne odgovore koji mogu imati velike posljedice.
Themis AI s MIT-a, suosnovan i vođen od strane profesorice Daniele Rus iz CSAIL laboratorija, nudi revolucionarno rješenje. Njihova tehnologija omogućuje AI modelima da 'znaju što ne znaju'. To znači da AI sustavi mogu sami signalizirati kada su nesigurni u svojim predviđanjima, čime se sprječavaju pogreške prije nego što nanesu štetu.
Zašto je to toliko važno?
Mnogi AI modeli, čak i oni napredni, ponekad mogu pokazivati tzv. 'halucinacije' – daju pogrešne ili neutemeljene odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnoze ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI razvio je Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti (uncertainty quantification): mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.
Kako to funkcionira?
Uvođenjem svijesti o nesigurnosti u modele, oni mogu svoje izlaze popratiti oznakom rizika ili pouzdanosti. Na primjer: autonomni automobil može signalizirati da nije siguran u neku situaciju i stoga aktivirati ljudsku intervenciju. Time se ne povećava samo sigurnost, već i povjerenje korisnika u AI sustave.
capsa_torch.wrapper() gdje se izlaz sastoji i od predviđanja i od rizika:

Zaključak
MIT tim pokazuje da se budućnost umjetne inteligencije ne vrti samo oko toga da postane pametnija, već i oko toga da funkcionira sigurnije i pravednije. U NetCareu vjerujemo da umjetna inteligencija postaje istinski vrijedna tek kada je transparentna u pogledu vlastitih ograničenja. S naprednim alatima za kvantifikaciju nesigurnosti, poput Capsa, tu viziju možete primijeniti u praksi.