Tekoälyn (AI) soveltaminen kasvaa nopeasti ja se kietoutuu yhä enemmän arkeemme sekä korkean riskin aloihin, kuten terveydenhuoltoon, televiestintään ja energiaan. Mutta suuren voiman mukana tulee myös suuri vastuu: AI-järjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.
MIT:n Themis AI, jonka on yhdessä perustanut ja jota johtaa professori Daniela Rus CSAIL-laboratoriosta, tarjoaa mullistavan ratkaisun. Heidän teknologiansa mahdollistaa tekoälymallien ‘tietää, mitä ne eivät tiedä’. Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, mikä estää virheitä ennen kuin ne aiheuttavat vahinkoa.
Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa kehittyneet, voivat joskus tuottaa niin sanottuja ‘hallutsinaatioita’ — ne antavat virheellisiä tai perusteettomia vastauksia. Sektoreilla, joissa päätöksillä on suuri merkitys, kuten lääketieteellinen diagnoosi tai autonominen ajaminen, tämä voi aiheuttaa katastrofaalisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tulosten epävarmuutta tarkasti ja luotettavasti.
Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riskin- tai luotettavuusmerkinnällä. Esimerkiksi itseajava auto voi ilmoittaa, ettei se ole varma tilanteesta, ja siten aktivoida ihmisen puuttumisen. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta tekoälyjärjestelmiin.
capsa_torch.wrapper() jossa tulos koostuu sekä ennusteesta että riskistä:

Johtopäätös
MIT tiimi näyttää, että tekoälyn tulevaisuus ei pyöri pelkästään älykkäämpänä tulemisen ympärillä, vaan erityisesti turvallisemman ja reilumman toiminnan suhteen. NetCare uskoo, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsa, voit myös toteuttaa tämän vision käytännössä.