Využití umělé inteligence (AI) roste rychle a stále více se prolíná s naším každodenním životem a odvětvími s vysokými sázkami, jako jsou zdravotnictví, telekomunikace a energetika. Ale s velkou silou přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.
Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, může někdy vykazovat takzvané „halucinace“ – poskytují chybné nebo neodůvodněné odpovědi. V odvětvích, kde jsou rozhodnutí těžká, jako je lékařská diagnostika nebo autonomní řízení, může to mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která používá kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.
Jak to funguje?
Když modelům předáme povědomí o nejistotě, mohou výstupy opatřit štítkem rizika nebo spolehlivosti. Například autonomní auto může signalizovat, že si není jisté situací, a tím aktivovat lidský zásah. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v systémy AI.
capsa_torch.wrapper() kde výstup zahrnuje jak predikci, tak riziko:
Závěr
MIT tým ukazuje, že budoucnost AI nespočívá jen v tom, stát se chytřejší, ale především v tom, fungovat bezpečněji a spravedlivěji. V NetCare věříme, že AI se stane skutečně hodnotnou až tehdy, když bude transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi také uvést do praxe.