A mesterséges intelligencia (AI) alkalmazása gyorsan növekszik, és egyre szorosabban összefonódik mindennapi életünkkel, valamint olyan nagy kockázatú iparágakkal, mint az egészségügy, a telekommunikáció és az energia. De a nagy erővel nagy felelősség is jár: az AI rendszerek néha hibákat követnek el, vagy bizonytalan válaszokat adnak, amelyek súlyos következményekkel járhatnak.
Miért fontos ez?
Sok AI-modell, még a fejlettek is, időnként úgynevezett „hallucinációkat” mutathat, hibás vagy megalapozatlan válaszokat adva. Olyan ágazatokban, ahol a döntések nagy súllyal bírnak, mint az orvosi diagnózis vagy az önvezető járművek, ez katasztrofális következményekkel járhat. A Themis AI kifejlesztette a Capsa platformot, amely bizonytalanság-mennyiségbecslést alkalmaz: részletes és megbízható módon méri és kvantifikálja az AI kimenetének bizonytalanságát.
Hogyan működik?
Azáltal, hogy a modelleknek tudatosságot adunk a bizonytalanságról, képesek kimeneteket kockázati vagy megbízhatósági címkével ellátni. Például egy önvezető autó jelezheti, hogy nem biztos egy helyzetben, és ezért emberi beavatkozást aktivál. Ez nemcsak a biztonságot növeli, hanem a felhasználók AI-rendszerekbe vetett bizalmát is erősíti.
capsa_torch.wrapper() amelyben a kimenet a predikciót és a kockázatot egyaránt tartalmazza:
Következtetés
Az MIT csapat Megmutatja, hogy az AI jövője nem csak az intelligensebbé válásról szól, hanem elsősorban a biztonságosabb és igazságosabb működésről is. A NetCare-nél úgy hisszük, hogy az AI csak akkor válik valóban értékessé, ha átlátható a saját korlátairól. Fejlett bizonytalanság-mennyiségbecslő eszközökkel, mint a Capsa, ezt a látást a gyakorlatban is megvalósíthatja.