Tekoälyn (AI) soveltaminen kasvaa nopeasti ja se kietoutuu yhä enemmän arkeemme sekä korkean riskin aloihin, kuten terveydenhuoltoon, televiestintään ja energiaan. Mutta suuren voiman mukana tulee myös suuri vastuu: AI-järjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.
Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa kehittyneet, voivat joskus osoittaa niin sanottuja ‘hallutsinaatioita’ – ne antavat virheellisiä tai perusteettomia vastauksia. Sektoreilla, joissa päätöksillä on suuri paino, kuten lääketieteellinen diagnoosi tai autonominen ajaminen, tämä voi aiheuttaa katastrofaalisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tulosten epävarmuutta tarkasti ja luotettavasti.
Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riski‑ tai luotettavuusmerkinnällä. Esimerkiksi itseajava auto voi ilmoittaa, että se ei ole varma tilanteesta ja siten aktivoida ihmisen puuttumisen. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta tekoälyjärjestelmiin.
capsa_torch.wrapper() jossa tulos koostuu sekä ennusteesta että riskistä:
Johtopäätös
MIT tiimi näyttää, että tekoälyn tulevaisuus ei pyöri pelkästään älykkäämpänä tulemisen ympärillä, vaan erityisesti turvallisemman ja reilumman toiminnan suhteen. NetCare uskoo, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsa, voit viedä tämän vision myös käytäntöön.