Жасанды интеллектті (AI) қолдану қарқынды өсіп, күнделікті өмірімізбен және денсаулық сақтау, телекоммуникация және энергетика сияқты маңызды салалармен барынша тығыз байланыстырылуда. Бірақ үлкен күшпен бірге үлкен жауапкершілік келеді: AI жүйелері кейде қателеседі немесе маңызды салдары болуы мүмкін күмәнді жауаптар береді.
CSAIL зертханасының профессоры Даниэла Рус бірлесіп құрған және басқаратын MIT-тің Themis AI компаниясы жаңашыл шешім ұсынады. Олардың технологиясы AI модельдеріне «өздерінің не білмейтінін білуге» мүмкіндік береді. Бұл AI жүйелері өз болжамдарына күмәнданған кезде көрсете алады деген сөз, осылайша зиян келтірмес бұрын қателердің алдын алуға болады.
Бұл неліктен соншалықты маңызды?
Көптеген AI модельдері, тіпті жетілдірілгендері де, кейде «галлюцинациялар» көрсете алады – олар қате немесе негізсіз жауаптар береді. Медициналық диагностика немесе автономды жүргізу сияқты шешімдердің салмағы ауыр салаларда бұл апатты салдарларға әкелуі мүмкін. Themis AI компаниясы Capsa деп аталатын платформаны әзірледі, ол күрделілік өлшемін қолданады: ол AI шығысының белгісіздігін егжей-тегжейлі және сенімді түрде өлшейді және санайды.
Бұл қалай жұмыс істейді?
Модельдерге белгісіздікті тану қабілетін енгізу арқылы, олар шығарылатын нәтижелерге тәуекел немесе сенімділік белгісін қоса алады. Мысалы: автономиялық көлік белгісіз жағдай туралы хабарлап, адамның араласуын іске қоса алады. Бұл қауіпсіздікті ғана емес, сонымен қатар пайдаланушылардың AI жүйелеріне деген сенімін де арттырады.
capsa_torch.wrapper() мұнда шығыс болжамды да, тәуекелді де қамтиды:

Қорытынды
MIT команда AI болашағы тек ақылды болуға ғана емес, сонымен қатар қауіпсіз және әділ жұмыс істеуге де бағытталғанын көрсетеді. NetCare-те біз AI өзінің шектеулері туралы ашық болғанда ғана шынымен құнды болады деп санаймыз. Capsa сияқты озық белгісіздікті бағалау құралдары арқылы сіз бұл көзқарасты іс жүзінде қолдана аласыз.