MIT tutkii tekoälyn älykkäämmäksi tekemistä

MIT-tiimi opettaa AI-malleja asioita, joita ne eivät vielä tiedä.

Tekoälyn (AI) soveltaminen kasvaa nopeasti ja se kietoutuu yhä enemmän arkeemme sekä korkean riskin aloihin, kuten terveydenhuoltoon, televiestintään ja energiaan. Mutta suuren voiman mukana tulee myös suuri vastuu: AI-järjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.

Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa kehittyneet, voivat joskus osoittaa niin sanottuja ‘hallutsinaatioita’ – ne antavat virheellisiä tai perusteettomia vastauksia. Sektoreilla, joissa päätöksillä on suuri paino, kuten lääketieteellinen diagnoosi tai autonominen ajaminen, tämä voi aiheuttaa katastrofaalisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tulosten epävarmuutta tarkasti ja luotettavasti.

 Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riski‑ tai luotettavuusmerkinnällä. Esimerkiksi itseajava auto voi ilmoittaa, että se ei ole varma tilanteesta ja siten aktivoida ihmisen puuttumisen. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta tekoälyjärjestelmiin.

Teknisen toteutuksen esimerkit
  • Kun integroidaan PyTorchin kanssa, mallin paketoiminen tapahtuu kautta capsa_torch.wrapper() jossa tulos koostuu sekä ennusteesta että riskistä:
Python example met capsa
TensorFlow-malleille Capsa toimii dekoratiivin avulla:
TensorFlow
Vaikutus yrityksiin ja käyttäjiin
Tälle teknologialle NetCarelle ja sen asiakkaille merkitsee valtava edistysaskel. Voimme toimittaa tekoälysovelluksia, jotka eivät ole vain älykkäitä, vaan myös turvallisia ja paremmin ennustettavia, vähäisemmällä hallutsinaatioiden riskillä. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä, kun tekoäly otetaan käyttöön liiketoimintakriittisissä sovelluksissa.

Johtopäätös
MIT tiimi näyttää, että tekoälyn tulevaisuus ei pyöri pelkästään älykkäämpänä tulemisen ympärillä, vaan erityisesti turvallisemman ja reilumman toiminnan suhteen. NetCare uskoo, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsa, voit viedä tämän vision myös käytäntöön.

Gerard

Gerard on aktiivinen AI-konsultti ja -manager. Laajalla kokemuksella suurissa organisaatioissa hän pystyy erityisen nopeasti selvittämään ongelman ja työskentelemään kohti ratkaisua. Yhdistettynä taloudelliseen taustaan hän varmistaa liiketoiminnallisesti vastuulliset valinnat.