Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a vysoce rizikovými odvětvími, jako je zdravotnictví, telekomunikace a energetika. S velkou mocí však přichází i velká zodpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.
Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy indikovat, kdy si nejsou jisté svými předpověďmi, což pomáhá předcházet chybám dříve, než způsobí škodu.
Proč je to tak důležité?
Mnoho modelů AI, dokonce i pokročilých, může někdy vykazovat takzvané „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde rozhodnutí mají velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.
Jak to funguje?
Díky tomu, že modely získají povědomí o nejistotě, mohou výstupy opatřit štítkem rizika nebo spolehlivosti. Například: samořídící auto může indikovat, že si není jisté situací, a proto aktivovat lidský zásah. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy AI.
capsa_torch.wrapper()
, přičemž výstup se skládá jak z předpovědi, tak z rizika:
Závěr
Tým z MIT ukazuje, že budoucnost AI není jen o tom, být chytřejší, ale především o bezpečnějším a spravedlivějším fungování. V NetCare věříme, že AI se stane skutečně cennou, pouze pokud bude transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi uvést do praxe.