Жасанды интеллекттің (ЖИ) қолданылуы тез өсіп, күнделікті өмірімізге және денсаулық сақтау, телекоммуникация және энергетика сияқты жоғары тәуекелді салаларға терең еніп келеді. Бірақ үлкен күшпен үлкен жауапкершілік те келеді: ЖИ жүйелері кейде қателесіп немесе үлкен салдары бар сенімсіз жауаптар беруі мүмкін.
MIT-тің Themis AI жобасы, CSAIL зертханасының профессоры Даниэла Рус негізін қалаған және басқарады, тыңғылықты шешім ұсынады. Олардың технологиясы ЖИ модельдеріне «білмейтінін білуге» мүмкіндік береді. Бұл ЖИ жүйелері өз болжамдарына сенімсіз болған кезде оны көрсете алатынын, осылайша зиян келтірмес бұрын қателіктердің алдын алуға мүмкіндік туындататынын білдіреді.
Неліктен бұл маңызды?
Көптеген ЖИ модельдері, тіпті жетілгендері де, кейде «галлюцинацияларды» көрсетуі мүмкін — олар қате немесе негізсіз жауаптарды береді. Медициналық диагноз немесе автопилот сияқты шешімдердің салмағы үлкен салаларда бұл апатты салдарға әкелуі мүмкін. Themis AI Capsa атты платформаны әзірледі, ол uncertainty quantification (сенімсіздікті сандық бағалау) қолданады: ЖИ шығысының сенімсіздігін егжей-тегжейлі және сенімді түрде өлшеп, сандық түрде көрсетеді.
Қалай жұмыс істейді?
Модельдерге uncertainty awareness (сенімсіздікті тану қабілетін) үйрету арқылы олар шығыстарға тәуекел немесе сенімділік жапсырмаларын қоса алады. Мысалы, өздігінен жүретін автокөлік бір жағдайға сенімді еместігін көрсете алады да, адам араласуын іске қосады. Бұл тек қауіпсіздікті арттырып қана қоймай, сонымен бірге пайдаланушылардың ЖИ жүйелеріне сенімін күшейтеді.
capsa_torch.wrapper() шығу болжам мен тәуекелден тұратын болады:

Қорытынды
MIT топ болашақтағы AI тек ақылдырақ болумен шектелмей, ең бастысы қауіпсіз әрі әділ жұмыс істеуге бағытталғанын көрсетеді. NetCare-та біз AI өзінің шектеулері туралы ашық болғанда ғана шынымен пайдалы болатынына сенеміз. Capsa сияқты озық белгісіздікті бағалау құралдарының көмегімен сіз осы көзқарасты іс жүзінде жүзеге асыра аласыз.