Жасанды интеллект (AI) қолдануы жылдам өсіп, күнделікті өмірімізбен және денсаулық сақтау, телекоммуникация, энергия сияқты жоғары жауапкершілікті салалармен күн сайын тығыз байланысады. Бірақ үлкен күшпен үлкен жауапкершілік те келеді: AI жүйелері кейде қателер жасайды немесе белгісіз жауаптар береді, бұл үлкен салдарға әкелуі мүмкін.
MIT-тің Themis AI-ы, CSAIL-лабораториясының профессоры Даниэла Рус басшылығымен бірлесіп құрылған, жаңашыл шешім ұсынады. Олардың технологиясы AI модельдеріне «өздері білмейтінін білуге» мүмкіндік береді. Бұл AI жүйелерінің өз болжамдарына сенімсіз болғанын өздері көрсете алатынын білдіреді, осылайша қателерді алдын ала болдырмай, зиян келтірмей тұрады.
Неге бұл маңызды?
Көптеген AI модельдері, тіпті озықтары да, кейде «галлюцинация» деп аталатын құбылысты көрсетеді — олар қате немесе негізсіз жауаптар береді. Медициналық диагноз немесе автономды жүргізу сияқты шешімдердің маңызды рөл атқаратын салаларда бұл апатты салдарға әкелуі мүмкін. Themis AI Capsa платформасын әзірледі, ол белгісіздікті сандық бағалауды қолданады: AI шығару нәтижелерінің белгісіздігін егжей-тегжейлі және сенімді түрде өлшейді және сандықтайды.
Бұл қалай жұмыс істейді?
Модельдерге белгісіздік туралы ақпарат беріп, олар шығару нәтижелеріне тәуекел немесе сенімділік белгісін қоса алады. Мысалы, автономды көлік жағдайға сенімді емес екенін көрсете алады және сол арқылы адам араласуын іске қосады. Бұл тек қауіпсіздікті арттырып қана қоймай, пайдаланушылардың AI жүйелеріне сенімін де күшейтеді.
capsa_torch.wrapper() шығарылым болжам мен тәуекелден тұрады:

Қорытынды
MIT команда AI болашағы тек ақылды болу ғана емес, сонымен қатар қауіпсіз әрі әділ жұмыс істеуге бағытталғанын көрсетеді. NetCare-де біз AI-дың шын мәнінде құнды болу үшін өз шектеулері туралы ашық болуы керек деп сенеміз. Capsa сияқты озық белгісіздікті сандық бағалау құралдары арқылы осы көзқарасты іс жүзінде жүзеге асыра аласыз.