MIT team at work

Tým MIT učí modely AI to, co ještě nevěděly.

Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a vysoce rizikovými odvětvími, jako je zdravotnictví, telekomunikace a energetika. S velkou mocí však přichází i velká zodpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy indikovat, kdy si nejsou jisté svými předpověďmi, což pomáhá předcházet chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho modelů AI, dokonce i pokročilých, může někdy vykazovat takzvané „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde rozhodnutí mají velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.

 Jak to funguje?
Díky tomu, že modely získají povědomí o nejistotě, mohou výstupy opatřit štítkem rizika nebo spolehlivosti. Například: samořídící auto může indikovat, že si není jisté situací, a proto aktivovat lidský zásah. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy AI.

Příklady technické implementace

  • Při integraci s PyTorch se model obalí pomocí capsa_torch.wrapper(), přičemž výstup se skládá jak z předpovědi, tak z rizika:

Python example met capsa

Pro modely TensorFlow funguje Capsa s dekorátorem:

tensorflow

Dopad na firmy a uživatele
Pro NetCare a její zákazníky znamená tato technologie obrovský krok vpřed. Můžeme poskytovat aplikace AI, které jsou nejen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe informovaná rozhodnutí a snižovat rizika při zavádění AI do kritických podnikových aplikací.

Závěr
Tým z MIT ukazuje, že budoucnost AI není jen o tom, být chytřejší, ale především o bezpečnějším a spravedlivějším fungování. V NetCare věříme, že AI se stane skutečně cennou, pouze pokud bude transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi uvést do praxe.

Gerard

Gerard

Gerard je aktivní jako AI konzultant a manažer. Díky bohatým zkušenostem ve velkých organizacích dokáže velmi rychle rozklíčovat problém a směřovat k řešení. Kombinace s ekonomickým zázemím mu umožňuje činit obchodně odpovědná rozhodnutí.

AIR (Artificial Intelligence Robot)