Využití umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem i s odvětvími s vysokou mírou odpovědnosti, jako je zdravotnictví, telekomunikace a energetika. S velkou mocí však přichází i velká zodpovědnost: systémy AI občas chybují nebo poskytují nejisté odpovědi, což může mít závažné následky.
Proč je to tak důležité?
Mnoho modelů AI, dokonce i těch pokročilých, může někdy vykazovat tzv. „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde na rozhodnutích záleží, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Společnost Themis AI vyvinula Capsa, platformu, která využívá kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupů AI podrobným a spolehlivým způsobem.
Jak to funguje?
Tím, že modely naučíme vnímat nejistotu, mohou své výstupy opatřit štítkem rizika nebo spolehlivosti. Například: samořízené auto může signalizovat, že si není jisté situací, a proto vyžádat zásah člověka. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v systémy AI.
capsa_torch.wrapper() přičemž výstup se skládá jak z předpovědi, tak z rizika:
Závěr
Tým z MIT tým ukazuje, že budoucnost AI není jen o tom, aby byla chytřejší, ale především o tom, aby fungovala bezpečněji a spravedlivěji. V NetCare věříme, že AI se stává skutečně hodnotnou až tehdy, když je transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi uvést do praxe.