MIT tutkii tekoälyn älykkäämmäksi tekemistä

MIT-tiimi opettaa AI-malleja asioista, joita ne eivät vielä tiedä.

Tekoälyn (AI) soveltaminen kasvaa nopeasti ja se kietoutuu yhä enemmän arkeemme sekä korkean riskin aloihin, kuten terveydenhuoltoon, televiestintään ja energiaan. Mutta suuren voiman mukana tulee myös suuri vastuu: AI-järjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.

MIT:n Themis AI, jonka on yhdessä perustanut ja jota johtaa professori Daniela Rus CSAIL-laboratoriosta, tarjoaa mullistavan ratkaisun. Heidän teknologiansa mahdollistaa tekoälymallien ‘tietää, mitä ne eivät tiedä’. Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, mikä estää virheitä ennen kuin ne aiheuttavat vahinkoa.

Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa kehittyneet, voivat joskus tuottaa niin sanottuja ‘hallutsinaatioita’ — ne antavat virheellisiä tai perusteettomia vastauksia. Sektoreilla, joissa päätöksillä on suuri merkitys, kuten lääketieteellinen diagnoosi tai autonominen ajaminen, tämä voi aiheuttaa katastrofaalisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tulosten epävarmuutta tarkasti ja luotettavasti.

 Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riskin- tai luotettavuusmerkinnällä. Esimerkiksi itseajava auto voi ilmoittaa, ettei se ole varma tilanteesta, ja siten aktivoida ihmisen puuttumisen. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta tekoälyjärjestelmiin.

Teknisen toteutuksen esimerkit

  • Kun integroidaan PyTorchin kanssa, mallin paketoiminen tapahtuu kautta capsa_torch.wrapper() jossa tulos koostuu sekä ennusteesta että riskistä:

Python example met capsa

TensorFlow-malleille Capsa toimii dekoroinnin avulla:

TensorFlow

Vaikutus yrityksiin ja käyttäjiin
NetCaren ja sen asiakkaiden kannalta tämä teknologia merkitsee valtavaa edistysaskelta. Voimme toimittaa tekoälysovelluksia, jotka eivät ole vain älykkäitä, vaan myös turvallisia ja paremmin ennustettavia, ja joissa on vähemmän hallutsinaatioiden riskiä. Tämä auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä, kun tekoäly otetaan käyttöön liiketoimintakriittisissä sovelluksissa.

Johtopäätös
MIT tiimi näyttää, että tekoälyn tulevaisuus ei pyöri pelkästään älykkäämpänä tulemisen ympärillä, vaan erityisesti turvallisemman ja reilumman toiminnan suhteen. NetCare uskoo, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsa, voit myös toteuttaa tämän vision käytännössä.

Gerard

Gerard toimii AI-konsulttina ja managerina. Laajan kokemuksen ansiosta suurissa organisaatioissa hän pystyy erityisen nopeasti selvittämään ongelman ja työskentelemään kohti ratkaisua. Yhdistettynä taloudelliseen taustaan hän varmistaa liiketoiminnallisesti vastuulliset valinnat.