Жасанды интеллект (AI) қолдануы жылдам өсіп, күнделікті өмірімізбен және денсаулық сақтау, телекоммуникация, энергия сияқты жоғары тәуекелді салалармен күн сайын тығыз байланысады. Бірақ үлкен күшпен үлкен жауапкершілік те келеді: AI жүйелері кейде қателер жасайды немесе белгісіз жауаптар береді, бұл үлкен салдарға әкелуі мүмкін.
Неге бұл маңызды?
Көптеген AI модельдері, тіпті озықтары да, кейде «галлюцинациялар» деп аталатын құбылысты көрсетеді — олар қате немесе негізсіз жауаптар береді. Медициналық диагноз немесе автономды жүргізу сияқты шешімдердің ауыр салмақты болатын салаларда бұл апатты нәтижелерге әкелуі мүмкін. Themis AI Capsa платформасын әзірледі, ол белгісіздікті сандық бағалауды қолданады: AI шығару нәтижелерінің белгісіздігін егжей-тегжейлі және сенімді түрде өлшейді және сандықтайды.
Бұл қалай жұмыс істейді?
Модельдерге белгісіздік туралы ақпарат беріп, олар шығару нәтижелеріне тәуекел немесе сенімділік белгісін қоса алады. Мысалы, өзін-өзі жүргізетін көлік жағдайға сенімді емес екенін көрсете алады және сол арқылы адам араласуын іске қосады. Бұл тек қауіпсіздікті арттырып қана қоймай, пайдаланушылардың AI жүйелеріне сенімін де күшейтеді.
capsa_torch.wrapper() шығарылым болжам мен тәуекелден тұрады:
Қорытынды
MIT команда NetCare-де біз AI өз шектеулері туралы ашық болғанда ғана шын мәнінде құнды болады деп сенеміз. Capsa сияқты озық белгісіздікті сандық бағалау құралдары арқылы осы көзқарасты іс жүзінде жүзеге асыра аласыз.