MIT team at work

MIT-tiimi opettaa tekoälymalleille uutta tietoa.

Tekoälyn (AI) soveltaminen kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme ja korkean panoksen aloihin, kuten terveydenhuoltoon, televiestintään ja energiaan. Suuren voiman mukana tulee kuitenkin myös suuri vastuu: tekoälyjärjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla merkittäviä seurauksia.

MIT:n Themis AI, jonka ovat perustaneet ja jota johtavat professori Daniela Rus CSAIL-laboratoriosta, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa tekoälymalleille mahdollisuuden “tietää, mitä ne eivät tiedä”. Tämä tarkoittaa, että tekoälyjärjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, mikä auttaa estämään virheitä ennen kuin ne aiheuttavat vahinkoa.

Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa edistyneet, voivat joskus “hallusinoida” – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tällä voi olla tuhoisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tuotoksen epävarmuutta yksityiskohtaisesti ja luotettavasti.

 Miten se toimii?
Antamalla malleille epävarmuustietoisuuden ne voivat antaa tuotoksille riski- tai luotettavuusleiman. Esimerkiksi itseohjautuva auto voi ilmoittaa olevansa epävarma tilanteesta ja aktivoida siksi ihmisen puuttumisen. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta tekoälyjärjestelmiin.

Esimerkkejä teknisestä toteutuksesta

  • PyTorchiin integroituna mallin kääre tapahtuu capsa_torch.wrapper() -toiminnon kautta, jolloin tulos sisältää sekä ennusteen että riskin:

Python example met capsa

TensorFlow-malleille Capsa toimii dekoratorin kanssa:

tensorflow

Vaikutus yrityksille ja käyttäjille
NetCarelle ja sen asiakkaille tämä teknologia merkitsee valtavaa edistysaskelta. Voimme tarjota tekoälysovelluksia, jotka eivät ole ainoastaan älykkäitä, vaan myös turvallisia ja ennustettavampia, ja joissa on pienempi hallusinaatioiden riski. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä tekoälyn käyttöönotossa liiketoimintakriittisissä sovelluksissa.

Yhteenveto
MIT:n tiimi osoittaa, että tekoälyn tulevaisuudessa ei ole kyse vain älykkäämmäksi tulemisesta, vaan ennen kaikkea turvallisemmasta ja oikeudenmukaisemmasta toiminnasta. NetCarella uskomme, että tekoälystä tulee todella arvokas vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit toteuttaa tämän vision käytännössä.

Gerard

Gerard

Gerard toimii tekoälykonsulttina ja -johtajana. Hänellä on laaja kokemus suurista organisaatioista, ja hän pystyy erittäin nopeasti tunnistamaan ongelman ja kehittämään ratkaisun. Yhdistettynä taloudelliseen taustaansa hän varmistaa liiketoiminnallisesti vastuulliset valinnat.

AIR (Artificial Intelligence Robot)