MIT tutkii tekoälyn älykkäämmäksi tekemistä

MIT-tiimi opettaa tekoälymalleille uutta tietoa.

Tekoälyn (AI) käyttö kasvaa nopeasti ja kietoutuu yhä tiiviimmin osaksi jokapäiväistä elämäämme ja kriittisiä toimialoja, kuten terveydenhuoltoa, tietoliikennettä ja energiaa. Mutta suuren voiman mukana tulee myös suuri vastuu: tekoälyjärjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.

MIT:n Themis AI, jonka on perustanut ja jota johtaa professori Daniela Rus CSAIL-laboratoriosta, tarjoaa mullistavan ratkaisun. Heidän teknologiansa antaa tekoälymalleille kyvyn ‘tietää, mitä ne eivät tiedä’. Tämä tarkoittaa, että tekoälyjärjestelmät voivat itse ilmoittaa, kun ne ovat epävarmoja ennusteistaan, jolloin vaurioiden syntyminen voidaan estää ennen kuin ne tapahtuvat.

Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa edistyneet, voivat joskus kokea niin sanottuja “hallusinaatioita”—ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tällä voi olla tuhoisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia (uncertainty quantification): se mittaa ja kvantifioi tekoälyn tuotoksen epävarmuuden yksityiskohtaisella ja luotettavalla tavalla.

 Miten se toimii?
Tuomalla malleihin epävarmuustietoisuutta ne voivat liittää tulosteisiinsa riski- tai luotettavuusmerkinnän. Esimerkiksi itseajava auto voi ilmoittaa, ettei se ole varma tilanteesta, ja aktivoida siksi ihmisen väliintulon. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta tekoälyjärjestelmiin.

Teknisen toteutuksen esimerkkejä

  • Kun integroituu PyTorchiin, mallin kääre (wrapping) tapahtuu capsa_torch.wrapper() jolloin tulos sisältää sekä ennusteen että riskin:

Python example met capsa

TensorFlow-malleille Capsa käyttää koristelijaa:

tensorflow

Vaikutus yrityksille ja käyttäjille
NetCarelle ja sen asiakkaille tämä teknologia merkitsee valtavaa harppausta eteenpäin. Voimme toimittaa tekoälysovelluksia, jotka eivät ole ainoastaan älykkäitä, vaan myös turvallisia ja paremmin ennustettavia, vähentäen hallusinaatioiden riskiä. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä ottaessaan tekoälyä käyttöön liiketoimintakriittisissä sovelluksissa.

Johtopäätös
MIT tiimi osoittaa, että tekoälyn tulevaisuus ei pyöri vain älykkäämmäksi tulemisen ympärillä, vaan erityisesti turvallisemman ja oikeudenmukaisemman toiminnan ympärillä. NetCarella uskomme, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit toteuttaa tämän vision käytännössä.

Gerard

Gerard toimii tekoälykonsulttina ja johtajana. Laajalla kokemuksella suurista organisaatioista hän pystyy purkamaan ongelman erittäin nopeasti ja työskentelemään kohti ratkaisua. Taloudellinen tausta yhdistettynä varmistaa liiketoiminnallisesti kestävät valinnat.

Tekoälyrobotti (AIR)