MIT zkoumá, jak učinit AI chytřejší

Tým MIT učí AI modely to, co ještě nevěděly.

Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a odvětvími s vysokými sázkami, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou mocí přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít velké důsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, může někdy vykazovat tzv. „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty (uncertainty quantification): měří a kvantifikuje nejistotu výstupů AI podrobným a spolehlivým způsobem.

 Jak to funguje?
Door modellen bewust te maken van onzekerheid, kunnen ze outputs voorzien van een risico- of betrouwbaarheidslabel. Een zelfrijdende auto kan bijvoorbeeld aangeven dat het onzeker is over een situatie en daarom menselijke interventie activeren. Dit verhoogt niet alleen de veiligheid, maar ook het vertrouwen van gebruikers in AI-systemen.

Technické příklady

  • Při integraci s PyTorch se model zabalí pomocí capsa_torch.wrapper() přičemž výstupem je jak predikce, tak riziko:

Python example met capsa

Pro modely TensorFlow používá Capsa dekorátor:

TensorFlow

Dopad na firmy a uživatele
Pro NetCare a její klienty tato technologie představuje obrovský krok vpřed. Dokážeme dodávat aplikace umělé inteligence, které jsou nejen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe podložená rozhodnutí a snižovat rizika při zavádění AI do kritických podnikových aplikací.

Závěr
MIT Team laat zien dat de toekomst van AI niet alleen draait om slimmer worden, maar vooral ook om veiliger en eerlijker functioneren. Bij NetCare geloven we dat AI pas écht waardevol wordt als het transparant is over zijn eigen beperkingen. Met geavanceerde tools voor onzekerheidskwantificering, zoals Capsa, kunt u die visie ook in de praktijk brengen.

Gerard

Gerard působí jako konzultant a manažer v oblasti AI. Díky rozsáhlým zkušenostem z velkých organizací dokáže mimořádně rychle analyzovat problém a dospět k řešení. V kombinaci s ekonomickým zázemím zajišťuje obchodně odpovědná rozhodnutí.

AIR (Umělý inteligentní robot)