Tekoälyn (AI) käyttö kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme sekä korkean panoksen toimialoihin, kuten terveydenhuoltoon, televiestintään ja energia-alaan. Suuren voiman myötä tulee myös suuri vastuu: AI-järjestelmät tekevät ajoittain virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.
MIT:n Themis AI, jonka perustajia ja johtajia on muun muassa CSAIL-labin professori Daniela Rus, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa AI-malleille kyvyn "tietää mitä ne eivät tiedä". Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa epävarmuudestaan ennusteissaan, mikä mahdollistaa virheiden ehkäisemisen ennen kuin ne aiheuttavat haittaa.
Miksi tämä on niin tärkeää?
Monet AI-mallit, jopa kehittyneet, voivat joskus ilmentää niin kutsuttuja "hallusinaatioita"—ne antavat virheellisiä tai perusteettomia vastauksia. Toimialoilla, joissa päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tästä voi seurata kohtalokkaita seurauksia. Themis AI kehitti Capsa-alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi AI-tuotosten epävarmuutta yksityiskohtaisella ja luotettavalla tavalla.
Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riskin- tai luotettavuusmerkillä. Esimerkiksi itseajava auto voi ilmoittaa epävarmuudestaan tilanteessa ja siten aktivoida ihmisen puuttumisen toimintaan. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta AI-järjestelmiin.
capsa_torch.wrapper() jonka tuloksena on sekä ennuste että riski:

Yhteenveto
MIT tiimi näyttää, että tekoälyn tulevaisuus ei koske vain älykkäämmäksi tulemista, vaan ennen kaikkea turvallisempaa ja oikeudenmukaisempaa toimintaa. NetCarella uskomme, että tekoäly on todellista arvoa tuottavaa vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsa, voitte toteuttaa tämän vision myös käytännössä.