MIT provádí výzkum, aby učinil AI chytřejší

Tým MIT učí AI modely, co ještě neznaly.

Využití umělé inteligence (AI) roste rychle a stále více se prolíná s naším každodenním životem a odvětvími s vysokými sázkami, jako jsou zdravotnictví, telekomunikace a energetika. Ale s velkou silou přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.

Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, může někdy vykazovat takzvané „halucinace“ – poskytují chybné nebo neodůvodněné odpovědi. V odvětvích, kde jsou rozhodnutí těžká, jako je lékařská diagnostika nebo autonomní řízení, může to mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která používá kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.

 Jak to funguje?
Když modelům předáme povědomí o nejistotě, mohou výstupy opatřit štítkem rizika nebo spolehlivosti. Například autonomní auto může signalizovat, že si není jisté situací, a tím aktivovat lidský zásah. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v systémy AI.

Příklady technické implementace
  • Při integraci s PyTorch jde o zabalení modelu pomocí capsa_torch.wrapper() kde výstup zahrnuje jak predikci, tak riziko:
Python example met capsa
Pro modely TensorFlow funguje Capsa s dekorátorem:
TensorFlow
Dopad na firmy a uživatele
Pro NetCare a její zákazníky představuje tato technologie obrovský krok vpřed. Můžeme dodávat AI aplikace, které nejsou jen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe podložená rozhodnutí a snižovat rizika při zavádění AI do kritických firemních aplikací.

Závěr
MIT tým ukazuje, že budoucnost AI nespočívá jen v tom, stát se chytřejší, ale především v tom, fungovat bezpečněji a spravedlivěji. V NetCare věříme, že AI se stane skutečně hodnotnou až tehdy, když bude transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi také uvést do praxe.

Gerard

Gerard je aktivní jako AI konzultant a manažer. S bohatou zkušeností ve velkých organizacích dokáže velmi rychle rozplést problém a pracovat na jeho řešení. Kombinace s ekonomickým zázemím mu umožňuje činit obchodně odpovědná rozhodnutí.