MIT team at work

Tým MIT učí modely umělé inteligence to, co ještě nevěděly.

Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a s vysoce rizikovými odvětvími, jako je zdravotnictví, telekomunikace a energetika. S velkou mocí však přichází i velká zodpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.

Themis AI od MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy indikovat, kdy si nejsou jisté svými předpověďmi, což pomáhá předcházet chybám, než způsobí škodu.

Proč je to tak důležité?
Mnoho modelů AI, dokonce i ty pokročilé, může někdy vykazovat takzvané „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde rozhodnutí mají velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální důsledky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.

 Jak to funguje?
Díky tomu, že modely získají povědomí o nejistotě, mohou své výstupy opatřit štítkem rizika nebo spolehlivosti. Například: samořídící auto může indikovat, že si není jisté situací, a proto aktivovat lidský zásah. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy AI.

Příklady technické implementace

  • Při integraci s PyTorch se model obalí pomocí capsa_torch.wrapper(), přičemž výstup se skládá jak z predikce, tak z rizika:

Python example met capsa

Pro modely TensorFlow funguje Capsa s dekorátorem:

tensorflow

Dopad na firmy a uživatele
Pro NetCare a její klienty znamená tato technologie obrovský krok vpřed. Můžeme dodávat aplikace AI, které jsou nejen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe podložená rozhodnutí a snižovat rizika při zavádění AI do kritických obchodních aplikací.

Závěr
Tým MIT ukazuje, že budoucnost AI není jen o tom, aby byla chytřejší, ale především o tom, aby fungovala bezpečněji a spravedlivěji. V NetCare věříme, že AI se stane skutečně cennou, pouze pokud bude transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi uvést do praxe.

Gerard

Gerard

Gerard působí jako AI konzultant a manažer. Díky bohatým zkušenostem z velkých organizací dokáže mimořádně rychle odhalit problém a směřovat k řešení. V kombinaci s ekonomickým zázemím zajišťuje obchodně odpovědná rozhodnutí.

AIR (Artificial Intelligence Robot)