Používání umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a s odvětvími s vysokou důležitostí, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou silou přichází i velká odpovědnost: AI systémy někdy chybují nebo poskytují nejisté odpovědi, což může mít závažné důsledky.
Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že AI systémy mohou samy indikovat, kdy jsou ohledně svých predikcí nejisté, čímž lze předejít chybám dříve, než způsobí škodu.
Proč je to tak důležité?
Mnoho AI modelů, dokonce i pokročilých, může občas vykazovat tzv. „halucinace“ — poskytují nesprávné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí vážné důsledky, jako je lékařská diagnostika nebo autonomní řízení, může být toto katastrofální. Themis AI vyvinula Capsa, platformu, která uplatňuje kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobně a spolehlivě.
Jak to funguje?
Tím, že modelům vštěpujete povědomí o nejistotě (uncertainty awareness), mohou opatřit výstupy štítkem rizika nebo spolehlivosti. Například autonomní vůz může oznámit, že si není v určité situaci jistý, a tím aktivovat zásah lidského řidiče. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v AI systémy.
capsa_torch.wrapper() kde výstup obsahuje jak predikci, tak riziko:

Závěr
MIT tým ukazuje, že budoucnost AI není pouze o tom stát se chytřejší, ale především fungovat bezpečněji a spravedlivěji. V NetCare věříme, že AI má skutečnou hodnotu teprve tehdy, když je transparentní ohledně svých vlastních omezení. Díky pokročilým nástrojům kvantifikace nejistoty, jako je Capsa, můžete tuto vizi uplatnit i v praxi.