MIT doet onderzoek om AI slimmer te maken

Tým MIT učí modely AI to, co dosud nevěděly.

Používání umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a s odvětvími s vysokou důležitostí, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou silou přichází i velká odpovědnost: AI systémy někdy chybují nebo poskytují nejisté odpovědi, což může mít závažné důsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že AI systémy mohou samy indikovat, kdy jsou ohledně svých predikcí nejisté, čímž lze předejít chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho AI modelů, dokonce i pokročilých, může občas vykazovat tzv. „halucinace“ — poskytují nesprávné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí vážné důsledky, jako je lékařská diagnostika nebo autonomní řízení, může být toto katastrofální. Themis AI vyvinula Capsa, platformu, která uplatňuje kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobně a spolehlivě.

 Jak to funguje?
Tím, že modelům vštěpujete povědomí o nejistotě (uncertainty awareness), mohou opatřit výstupy štítkem rizika nebo spolehlivosti. Například autonomní vůz může oznámit, že si není v určité situaci jistý, a tím aktivovat zásah lidského řidiče. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v AI systémy.

Příklady technické implementace

  • Při integraci s PyTorch probíhá zabalování modelu přes capsa_torch.wrapper() kde výstup obsahuje jak predikci, tak riziko:

Python example met capsa

Pro modely TensorFlow funguje Capsa s dekorátorem:

tensorflow

Dopad pro firmy a uživatele
Pro NetCare a její klienty znamená tato technologie obrovský krok kupředu. Můžeme dodávat AI aplikace, které nejsou jen inteligentní, ale také bezpečné a lépe předvídatelné s menším rizikem halucinací. Pomáhá organizacím činit lépe podložená rozhodnutí a snižovat rizika při nasazování AI v podnikově kritických aplikacích.

Závěr
MIT tým ukazuje, že budoucnost AI není pouze o tom stát se chytřejší, ale především fungovat bezpečněji a spravedlivěji. V NetCare věříme, že AI má skutečnou hodnotu teprve tehdy, když je transparentní ohledně svých vlastních omezení. Díky pokročilým nástrojům kvantifikace nejistoty, jako je Capsa, můžete tuto vizi uplatnit i v praxi.

Gerard

Gerard působí jako AI konzultant a manažer. Díky bohatým zkušenostem z velkých organizací dokáže velmi rychle rozklíčovat problém a směřovat k řešení. Ve spojení s ekonomickým zázemím zajišťuje obchodně odpovědná rozhodnutí.