Tekoälyn (AI) sovellukset kasvavat nopeasti ja kietoutuvat yhä tiiviimmin jokapäiväiseen elämäämme ja korkean panoksen aloihin, kuten terveydenhuoltoon, telekommunikaatioon ja energiaan. Mutta suuren voiman mukana tulee suuri vastuu: AI-järjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.
MIT:n Themis AI, jonka CSAIL-laboratorion professori Daniela Rus oli mukana perustamassa ja johtaa, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa AI-malleille mahdollisuuden “tietää, mitä ne eivät tiedä”. Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa, kun ne ovat epävarmoja ennusteistaan, mikä auttaa estämään virheitä ennen kuin ne aiheuttavat vahinkoa.
Miksi tämä on niin tärkeää?
Monet AI-mallit, jopa edistyneet, voivat joskus osoittaa niin kutsuttuja “hallusinaatioita” – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnoosissa tai autonomisessa ajamisessa, tällä voi olla tuhoisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi AI-tulosten epävarmuutta yksityiskohtaisella ja luotettavalla tavalla.
Miten se toimii?
Antamalla malleille epävarmuustietoisuutta ne voivat antaa tuloksille riski- tai luotettavuusmerkinnän. Esimerkiksi itseohjautuva auto voi ilmoittaa olevansa epävarma tilanteesta ja siksi aktivoida ihmisen väliintulon. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta AI-järjestelmiin.
capsa_torch.wrapper()
-funktion kautta, jolloin tulos sisältää sekä ennusteen että riskin:
Johtopäätös
MIT:n joukkue osoittaa, että AI:n tulevaisuus ei ole vain älykkäämmäksi tuleminen, vaan ennen kaikkea turvallisempi ja oikeudenmukaisempi toiminta. NetCarella uskomme, että AI:sta tulee todella arvokas vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Edistyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit myös toteuttaa tämän vision käytännössä.