MIT zkoumá, jak zefektivnit AI

Tým MIT učí AI modely to, co ještě nevěděly.

Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a odvětvími s vysokými sázkami, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou mocí přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít velké důsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, může někdy vykazovat tzv. „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty (uncertainty quantification): měří a kvantifikuje nejistotu výstupů AI podrobným a spolehlivým způsobem.

 Jak to funguje?
Door modellen bewust te maken van onzekerheid, kunnen ze outputs voorzien van een risico- of betrouwbaarheidslabel. Een zelfrijdende auto kan bijvoorbeeld aangeven dat het onzeker is over een situatie en daarom menselijke interventie activeren. Dit verhoogt niet alleen de veiligheid, maar ook het vertrouwen van gebruikers in AI-systemen.

Příklady implementace

  • Při integraci s PyTorch se zabalení modelu provádí pomocí capsa_torch.wrapper() přičemž výstupem je jak predikce, tak i riziko:

Python example met capsa

Pro modely TensorFlow používá Capsa dekorátor:

tensorflow

Dopad na firmy
Pro společnost NetCare a její klienty představuje tato technologie obrovský krok vpřed. Dokážeme dodávat aplikace umělé inteligence, které jsou nejen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe podložená rozhodnutí a snižovat rizika při zavádění AI do kritických podnikových aplikací.

Závěr
MIT Team laat zien dat de toekomst van AI niet alleen draait om slimmer worden, maar vooral ook om veiliger en eerlijker functioneren. Bij NetCare geloven we dat AI pas écht waardevol wordt als het transparant is over zijn eigen beperkingen. Met geavanceerde tools voor onzekerheidskwantificering, zoals Capsa, kunt u die visie ook in de praktijk brengen.

Gerard

Gerard působí jako AI konzultant a manažer. Díky rozsáhlým zkušenostem s velkými organizacemi dokáže mimořádně rychle rozklíčovat problém a dospět k řešení. V kombinaci s ekonomickým zázemím zajišťuje obchodně odpovědná rozhodnutí.

AIR (Umělý Inteligentní Robot)