Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a odvětvími s vysokými sázkami, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou mocí přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít velké důsledky.
Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.
Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, se někdy může dopouštět takzvaných „halucinací“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde rozhodnutí mají velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty (uncertainty quantification): měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.
Jak to funguje?
Zavedením povědomí o nejistotě do modelů je možné opatřit jejich výstupy štítkem rizika nebo spolehlivosti. Například autonomní vozidlo může signalizovat, že si není jisté danou situací, a proto aktivovat zásah člověka. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy umělé inteligence.
capsa_torch.wrapper() přičemž výstupem je jak predikce, tak riziko:

Závěr
MIT tým ukazuje, že budoucnost AI nespočívá pouze v tom být chytřejší, ale především v bezpečnějším a spravedlivějším fungování. My v NetCare věříme, že AI se stává skutečně cennou teprve tehdy, když je transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi uvést do praxe i vy.