Tekoälyn (AI) soveltaminen kasvaa nopeasti ja kietoutuu yhä tiiviimmin osaksi jokapäiväistä elämäämme sekä kriittisiä toimialoja, kuten terveydenhuoltoa, televiestintää ja energia-alaa. Suuren voiman mukana tulee kuitenkin suuri vastuu: tekoälyjärjestelmät tekevät toisinaan virheitä tai antavat epävarmoja vastauksia, joilla voi olla merkittäviä seurauksia.
Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa edistyneet sellaiset, voivat toisinaan kärsiä niin sanotuista hallusinaatioista – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tällä voi olla tuhoisia seurauksia. Themis AI on kehittänyt Capsan, alustan, joka hyödyntää epävarmuuden kvantifiointia (uncertainty quantification): se mittaa ja määrittelee tekoälyn tuottaman tuloksen epävarmuuden yksityiskohtaisella ja luotettavalla tavalla.
Miten se toimii?
Opettamalla malleille epävarmuuden tunnistamista, ne voivat liittää tuloksiinsa riski- tai luotettavuusmerkinnän. Esimerkiksi itseajava auto voi ilmoittaa, ettei se ole varma tilanteesta, ja pyytää siksi ihmisen väliintuloa. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta tekoälyjärjestelmiin.
capsa_torch.wrapper() jolloin tulos sisältää sekä ennusteen että riskin:
Johtopäätös
MIT tiimi osoittaa, että tekoälyn tulevaisuus ei liity vain älykkäämmäksi tulemiseen, vaan ennen kaikkea turvallisempaan ja oikeudenmukaisempaan toimintaan. Me NetCarella uskomme, että tekoäly muuttuu todella arvokkaaksi vasta, kun se on läpinäkyvä omien rajoitteidensa suhteen. Edistyneiden epävarmuuden kvantifiointityökalujen, kuten Capsan, avulla voitte viedä tämän vision käytäntöön.