A mesterséges intelligencia (AI) alkalmazása gyorsan növekszik, és egyre inkább összefonódik mindennapi életünkkel, valamint az olyan kritikus fontosságú iparágakkal, mint az egészségügy, a távközlés és az energiaipar. De a nagy hatalom nagy felelősséggel is jár: az AI-rendszerek néha hibáznak, vagy bizonytalan válaszokat adnak, amelyeknek súlyos következményei lehetnek.
Miért olyan fontos ez?
Számos AI-modell, még a fejlettek is, néha úgynevezett „hallucinációkat” produkálhat – hibás vagy megalapozatlan válaszokat adnak. Azokon a területeken, ahol a döntéseknek nagy a súlya, mint például az orvosi diagnosztika vagy az önvezető autózás, ennek katasztrofális következményei lehetnek. A Themis AI kifejlesztette a Capsát, egy olyan platformot, amely bizonytalanság-számszerűsítést (uncertainty quantification) alkalmaz: részletes és megbízható módon méri és számszerűsíti az AI-kimenetek bizonytalanságát.
Hogyan működik?
Azáltal, hogy a modelleket bizonytalanság-tudatosságra (uncertainty awareness) tanítjuk, a kimeneteket kockázati vagy megbízhatósági címkével láthatják el. Például: egy önvezető autó jelezheti, ha bizonytalan egy helyzetben, és ezért emberi beavatkozást kérhet. Ez nemcsak a biztonságot növeli, hanem a felhasználók AI-rendszerekbe vetett bizalmát is.
capsa_torch.wrapper() ahol a kimenet mind a jóslatot, mind a kockázatot tartalmazza:
Következtetés
A MIT csapata megmutatja, hogy az AI jövője nemcsak az okosabbá válásról szól, hanem mindenekelőtt a biztonságosabb és tisztességesebb működésről. A NetCare-nél hiszünk abban, hogy az AI csak akkor válik igazán értékessé, ha átlátható a saját korlátaival kapcsolatban. Az olyan fejlett bizonytalanság-számszerűsítő eszközökkel, mint a Capsa, Ön is a gyakorlatba ültetheti ezt a jövőképet.