MIT team at work

MIT-tiimi opettaa tekoälymalleille asioita, joita ne eivät vielä tienneet.

Tekoälyn (AI) soveltaminen kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme ja korkean panoksen aloihin, kuten terveydenhuoltoon, televiestintään ja energiaan. Mutta suuren voiman mukana tulee suuri vastuu: tekoälyjärjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.

MIT:n Themis AI, jonka ovat perustaneet ja jota johtaa professori Daniela Rus CSAIL-laboratoriosta, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa tekoälymalleille mahdollisuuden “tietää, mitä ne eivät tiedä”. Tämä tarkoittaa, että tekoälyjärjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, mikä auttaa estämään virheitä ennen kuin ne aiheuttavat vahinkoa.

Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa edistyneet, voivat joskus “hallusinoida” – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tällä voi olla katastrofaalisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tuotoksen epävarmuutta yksityiskohtaisesti ja luotettavasti.

 Miten se toimii?
Antamalla malleille epävarmuustietoisuutta ne voivat antaa tuotoksille riski- tai luotettavuusmerkinnän. Esimerkiksi itseohjautuva auto voi ilmoittaa olevansa epävarma tilanteesta ja siten aktivoida ihmisen väliintulon. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta tekoälyjärjestelmiin.

Esimerkkejä teknisestä toteutuksesta

  • PyTorchiin integroituna mallin kääre tapahtuu capsa_torch.wrapper()-toiminnolla, jolloin tuloksena on sekä ennuste että riski:

Python example met capsa

TensorFlow-malleille Capsa toimii dekoratorilla:

tensorflow

Vaikutus yrityksiin ja käyttäjiin
NetCarelle ja sen asiakkaille tämä teknologia merkitsee valtavaa edistystä. Voimme tarjota tekoälysovelluksia, jotka eivät ole ainoastaan älykkäitä, vaan myös turvallisia ja ennustettavampia, ja joissa on vähemmän hallusinaatioiden riskiä. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä tekoälyn käyttöönotossa liiketoimintakriittisissä sovelluksissa.

Johtopäätös
MIT:n tiimi osoittaa, että tekoälyn tulevaisuus ei ole vain älykkäämmäksi tulemista, vaan ennen kaikkea turvallisempaa ja oikeudenmukaisempaa toimintaa. NetCarella uskomme, että tekoälystä tulee todella arvokas vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Edistyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit myös toteuttaa tämän vision käytännössä.

Gerard

Gerard

Gerard toimii tekoälykonsulttina ja -johtajana. Laajan kokemuksensa ansiosta suurista organisaatioista hän pystyy purkamaan ongelman ja työskentelemään kohti ratkaisua erityisen nopeasti. Yhdistettynä taloudelliseen taustaansa hän varmistaa liiketoiminnallisesti vastuulliset valinnat.

AIR (Artificial Intelligence Robot)