Жасанды интеллектті (AI) қолдану қарқынды дамып келеді және біздің күнделікті өмірімізбен, сондай-ақ денсаулық сақтау, телекоммуникация және энергетика сияқты маңызды салалармен тығыз байланысты. Алайда, үлкен күш үлкен жауапкершілікті талап етеді: AI жүйелері кейде қателіктер жібереді немесе ауыр зардаптарға әкелуі мүмкін сенімсіз жауаптар береді.
Бұл неге соншалықты маңызды?
Көптеген AI модельдері, тіпті жетілдірілгендері де, кейде «галлюцинация» деп аталатын құбылысты көрсетеді — олар қате немесе негізсіз жауаптар береді. Медициналық диагноз қою немесе автономды көлік жүргізу сияқты шешімдердің салмағы ауыр салаларда бұл апатты салдарға әкелуі мүмкін. Themis AI компаниясы Capsa платформасын әзірледі, ол белгісіздікті бағалауды (uncertainty quantification) қолданады: ол AI нәтижелерінің белгісіздігін егжей-тегжейлі және сенімді түрде өлшеп, сандық мән береді.
Бұл қалай жұмыс істейді?
Модельдерге белгісіздікті сезінуді үйрету арқылы олардың нәтижелеріне тәуекел немесе сенімділік белгісін қоюға болады. Мысалы: өздігінен жүретін көлік жағдайға сенімсіз екенін білдіріп, адамның араласуын талап ете алады. Бұл қауіпсіздікті арттырып қана қоймай, пайдаланушылардың AI жүйелеріне деген сенімін де нығайтады.
capsa_torch.wrapper() мұнда нәтиже болжам мен тәуекелді де қамтиды:
Қорытынды
MIT тобы AI болашағы тек ақылды болу емес, ең алдымен қауіпсіз және әділ жұмыс істеу екенін көрсетеді. NetCare-де біз AI өзінің шектеулері туралы ашық болғанда ғана шынайы құндылыққа ие болатынына сенеміз. Capsa сияқты жетілдірілген белгісіздікті бағалау құралдарымен сіз бұл көзқарасты іс жүзінде жүзеге асыра аласыз.