MIT doet onderzoek om AI slimmer te maken

MIT-tiimi opettaa tekoälymalleille asioita, joita ne eivät vielä tienneet.

Tekoälyn (AI) käyttö kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme sekä korkean panoksen toimialoihin, kuten terveydenhuoltoon, televiestintään ja energia-alaan. Suuren voiman myötä tulee myös suuri vastuu: AI-järjestelmät tekevät ajoittain virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.

MIT:n Themis AI, jonka perustajia ja johtajia on muun muassa CSAIL-labin professori Daniela Rus, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa AI-malleille kyvyn "tietää mitä ne eivät tiedä". Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa epävarmuudestaan ennusteissaan, mikä mahdollistaa virheiden ehkäisemisen ennen kuin ne aiheuttavat haittaa.

Miksi tämä on niin tärkeää?
Monet AI-mallit, jopa kehittyneet, voivat joskus ilmentää niin kutsuttuja "hallusinaatioita"—ne antavat virheellisiä tai perusteettomia vastauksia. Toimialoilla, joissa päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tästä voi seurata kohtalokkaita seurauksia. Themis AI kehitti Capsa-alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi AI-tuotosten epävarmuutta yksityiskohtaisella ja luotettavalla tavalla.

 Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riskin- tai luotettavuusmerkillä. Esimerkiksi itseajava auto voi ilmoittaa epävarmuudestaan tilanteessa ja siten aktivoida ihmisen puuttumisen toimintaan. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta AI-järjestelmiin.

Teknisen toteutuksen esimerkkejä

  • PyTorchiin integroituna mallin kääre tehdään seuraavasti capsa_torch.wrapper() jonka tuloksena on sekä ennuste että riski:

Python example met capsa

TensorFlow-mallien kanssa Capsa toimii dekorattorin avulla:

tensorflow

Vaikutus yrityksille ja käyttäjille
NetCarelle ja sen asiakkaille tämä teknologia merkitsee valtavaa harppausta eteenpäin. Voimme toimittaa AI-sovelluksia, jotka eivät ole pelkästään älykkäitä, vaan myös turvallisempia ja ennustettavampia, kun hallusinaatioiden todennäköisyys on pienempi. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä, kun tekoäly otetaan käyttöön liiketoimintakriittisissä sovelluksissa.

Yhteenveto
MIT tiimi näyttää, että tekoälyn tulevaisuus ei koske vain älykkäämmäksi tulemista, vaan ennen kaikkea turvallisempaa ja oikeudenmukaisempaa toimintaa. NetCarella uskomme, että tekoäly on todellista arvoa tuottavaa vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsa, voitte toteuttaa tämän vision myös käytännössä.

Gerard

Gerard toimii tekoälykonsulttina ja -päällikkönä. Suureissa organisaatioissa karttunut laaja kokemus antaa hänelle kyvyn nopeasti selvittää ongelman ytimen ja edetä ratkaisun suuntaan. Taloudellinen tausta varmistaa liiketaloudellisesti vastuulliset valinnat.