Жасанды интеллектті (AI) қолдану қарқынды дамып келеді және біздің күнделікті өмірімізбен, сондай-ақ денсаулық сақтау, телекоммуникация және энергетика сияқты маңызды салалармен тығыз байланысты. Алайда, үлкен күш үлкен жауапкершілікті талап етеді: AI жүйелері кейде қателіктер жібереді немесе ауыр зардаптарға әкелуі мүмкін сенімсіз жауаптар береді.
Бұл неге соншалықты маңызды?
Көптеген AI модельдері, тіпті озықтары да, кейде «галлюцинация» деп аталатын құбылысты көрсете алады — олар қате немесе негізсіз жауаптар береді. Медициналық диагноз қою немесе автономды көлік жүргізу сияқты шешімдердің салмағы ауыр салаларда бұл апатты салдарға әкелуі мүмкін. Themis AI компаниясы Capsa платформасын әзірледі, ол белгісіздікті бағалауды (uncertainty quantification) қолданады: ол AI нәтижелерінің белгісіздігін егжей-тегжейлі және сенімді түрде өлшеп, сандық түрде көрсетеді.
Бұл қалай жұмыс істейді?
Модельдерге белгісіздікті сезінуді үйрету арқылы олардың нәтижелеріне тәуекел немесе сенімділік белгісін қоюға болады. Мысалы: өздігінен жүретін көлік белгілі бір жағдайға сенімсіз болса, адамның араласуын талап ете алады. Бұл қауіпсіздікті арттырып қана қоймай, пайдаланушылардың AI жүйелеріне деген сенімін де нығайтады.
capsa_torch.wrapper() мұнда нәтиже болжам мен тәуекелді де қамтиды:
Қорытынды
MIT (Массачусетс технологиялық институты) тобы AI болашағы тек ақылды болу емес, ең алдымен қауіпсіз және әділ жұмыс істеу екенін көрсетеді. NetCare-де біз AI өз шектеулері туралы ашық болғанда ғана шынайы құнды болатынына сенеміз. Capsa сияқты озық белгісіздікті бағалау құралдарының көмегімен сіз бұл көзқарасты іс жүзінде жүзеге асыра аласыз.