Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a odvětvími s vysokými sázkami, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou mocí přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít velké důsledky.
Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.
Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, může někdy vykazovat tzv. „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty (uncertainty quantification): měří a kvantifikuje nejistotu výstupů AI podrobným a spolehlivým způsobem.
Jak to funguje?
Door modellen bewust te maken van onzekerheid, kunnen ze outputs voorzien van een risico- of betrouwbaarheidslabel. Een zelfrijdende auto kan bijvoorbeeld aangeven dat het onzeker is over een situatie en daarom menselijke interventie activeren. Dit verhoogt niet alleen de veiligheid, maar ook het vertrouwen van gebruikers in AI-systemen.
capsa_torch.wrapper() přičemž výstupem je jak predikce, tak i riziko:

Závěr
MIT Team laat zien dat de toekomst van AI niet alleen draait om slimmer worden, maar vooral ook om veiliger en eerlijker functioneren. Bij NetCare geloven we dat AI pas écht waardevol wordt als het transparant is over zijn eigen beperkingen. Met geavanceerde tools voor onzekerheidskwantificering, zoals Capsa, kunt u die visie ook in de praktijk brengen.