Tekoälyn (AI) soveltaminen kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme ja korkean panoksen aloihin, kuten terveydenhuoltoon, televiestintään ja energiaan. Mutta suuren voiman mukana tulee suuri vastuu: tekoälyjärjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.
MIT:n Themis AI, jonka ovat perustaneet ja jota johtaa professori Daniela Rus CSAIL-laboratoriosta, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa tekoälymalleille mahdollisuuden “tietää, mitä ne eivät tiedä”. Tämä tarkoittaa, että tekoälyjärjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, mikä auttaa estämään virheitä ennen kuin ne aiheuttavat vahinkoa.
Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa edistyneet, voivat joskus “hallusinoida” – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tällä voi olla katastrofaalisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tuotoksen epävarmuutta yksityiskohtaisesti ja luotettavasti.
Miten se toimii?
Antamalla malleille epävarmuustietoisuutta ne voivat antaa tuotoksille riski- tai luotettavuusmerkinnän. Esimerkiksi itseohjautuva auto voi ilmoittaa olevansa epävarma tilanteesta ja siten aktivoida ihmisen väliintulon. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta tekoälyjärjestelmiin.
capsa_torch.wrapper()
-toiminnolla, jolloin tuloksena on sekä ennuste että riski:
Johtopäätös
MIT:n tiimi osoittaa, että tekoälyn tulevaisuus ei ole vain älykkäämmäksi tulemista, vaan ennen kaikkea turvallisempaa ja oikeudenmukaisempaa toimintaa. NetCarella uskomme, että tekoälystä tulee todella arvokas vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Edistyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit myös toteuttaa tämän vision käytännössä.