Využití umělé inteligence (AI) roste rychle a stále více se prolíná s naším každodenním životem a odvětvími s vysokými sázkami, jako jsou zdravotnictví, telekomunikace a energetika. Ale s velkou silou přichází i velká odpovědnost: AI systémy někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.
Themis AI z MIT, spoluzakladatel a vedoucí profesorka Daniela Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co neví“. To znamená, že AI systémy mohou samy naznačit, kdy jsou nejisté ohledně svých předpovědí, čímž lze předejít chybám dříve, než způsobí škodu.
Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, může někdy vykazovat takzvané „halucinace“ – poskytují chybné nebo neodůvodněné odpovědi. V odvětvích, kde jsou rozhodnutí těžká, jako je lékařská diagnostika nebo autonomní řízení, může to mít katastrofální důsledky. Themis AI vyvinula Capsa, platformu, která používá kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.
Jak to funguje?
Když modelům předáte povědomí o nejistotě, mohou výstupy opatřit štítkem rizika nebo spolehlivosti. Například autonomní auto může signalizovat, že si není jisté situací, a tím aktivovat lidský zásah. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v AI systémy.
capsa_torch.wrapper() přičemž výstup se skládá jak z předpovědi, tak z rizika:

Závěr
MIT tým ukazuje, že budoucnost AI nespočívá jen v tom, stát se chytřejší, ale především v tom, fungovat bezpečněji a spravedlivěji. V NetCare věříme, že AI se stane skutečně hodnotnou až když je transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi také uvést do praxe.