MIT team at work

MIT-tiimi opettaa tekoälymalleille asioita, joita ne eivät vielä tienneet.

Tekoälyn (AI) sovellukset kasvavat nopeasti ja kietoutuvat yhä tiiviimmin jokapäiväiseen elämäämme ja korkean panoksen aloihin, kuten terveydenhuoltoon, telekommunikaatioon ja energiaan. Mutta suuren voiman mukana tulee suuri vastuu: AI-järjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.

MIT:n Themis AI, jonka CSAIL-laboratorion professori Daniela Rus oli mukana perustamassa ja johtaa, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa AI-malleille mahdollisuuden “tietää, mitä ne eivät tiedä”. Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa, kun ne ovat epävarmoja ennusteistaan, mikä auttaa estämään virheitä ennen kuin ne aiheuttavat vahinkoa.

Miksi tämä on niin tärkeää?
Monet AI-mallit, jopa edistyneet, voivat joskus osoittaa niin kutsuttuja “hallusinaatioita” – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnoosissa tai autonomisessa ajamisessa, tällä voi olla tuhoisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi AI-tulosten epävarmuutta yksityiskohtaisella ja luotettavalla tavalla.

 Miten se toimii?
Antamalla malleille epävarmuustietoisuutta ne voivat antaa tuloksille riski- tai luotettavuusmerkinnän. Esimerkiksi itseohjautuva auto voi ilmoittaa olevansa epävarma tilanteesta ja siksi aktivoida ihmisen väliintulon. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta AI-järjestelmiin.

Esimerkkejä teknisestä toteutuksesta

  • PyTorchiin integroituna mallin kääre tapahtuu capsa_torch.wrapper() -funktion kautta, jolloin tulos sisältää sekä ennusteen että riskin:

Python example met capsa

TensorFlow-malleille Capsa toimii dekoratorin kanssa:

tensorflow

Vaikutus yrityksiin ja käyttäjiin
NetCarelle ja sen asiakkaille tämä teknologia merkitsee valtavaa edistystä. Voimme tarjota AI-sovelluksia, jotka eivät ole ainoastaan älykkäitä, vaan myös turvallisia ja paremmin ennustettavia, vähemmän hallusinaatioita. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä AI:n käyttöönotossa liiketoimintakriittisissä sovelluksissa.

Johtopäätös
MIT:n joukkue osoittaa, että AI:n tulevaisuus ei ole vain älykkäämmäksi tuleminen, vaan ennen kaikkea turvallisempi ja oikeudenmukaisempi toiminta. NetCarella uskomme, että AI:sta tulee todella arvokas vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Edistyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit myös toteuttaa tämän vision käytännössä.

Gerard

Gerard

Gerard toimii aktiivisesti tekoälykonsulttina ja johtajana. Suurella kokemuksella suurista organisaatioista hän pystyy erityisen nopeasti selvittämään ongelman ja työskentelemään ratkaisun löytämiseksi. Yhdistettynä taloudelliseen taustaan hän varmistaa liiketoiminnallisesti vastuulliset valinnat.

AIR (Artificial Intelligence Robot)