MIT doet onderzoek om AI slimmer te maken

MIT тобы ЖИ модельдеріне олар білмеген нәрселерді үйретеді.

Жасанды интеллекттің (ЖИ) қолданылуы тез өсіп, күнделікті өмірімізге және денсаулық сақтау, телекоммуникация және энергетика сияқты жоғары тәуекелді салаларға терең еніп келеді. Бірақ үлкен күшпен үлкен жауапкершілік те келеді: ЖИ жүйелері кейде қателесіп немесе үлкен салдары бар сенімсіз жауаптар беруі мүмкін.

MIT-тің Themis AI жобасы, CSAIL зертханасының профессоры Даниэла Рус негізін қалаған және басқарады, тыңғылықты шешім ұсынады. Олардың технологиясы ЖИ модельдеріне «білмейтінін білуге» мүмкіндік береді. Бұл ЖИ жүйелері өз болжамдарына сенімсіз болған кезде оны көрсете алатынын, осылайша зиян келтірмес бұрын қателіктердің алдын алуға мүмкіндік туындататынын білдіреді.

Неліктен бұл маңызды?
Көптеген ЖИ модельдері, тіпті жетілгендері де, кейде «галлюцинацияларды» көрсетуі мүмкін — олар қате немесе негізсіз жауаптарды береді. Медициналық диагноз немесе автопилот сияқты шешімдердің салмағы үлкен салаларда бұл апатты салдарға әкелуі мүмкін. Themis AI Capsa атты платформаны әзірледі, ол uncertainty quantification (сенімсіздікті сандық бағалау) қолданады: ЖИ шығысының сенімсіздігін егжей-тегжейлі және сенімді түрде өлшеп, сандық түрде көрсетеді.

 Қалай жұмыс істейді?
Модельдерге uncertainty awareness (сенімсіздікті тану қабілетін) үйрету арқылы олар шығыстарға тәуекел немесе сенімділік жапсырмаларын қоса алады. Мысалы, өздігінен жүретін автокөлік бір жағдайға сенімді еместігін көрсете алады да, адам араласуын іске қосады. Бұл тек қауіпсіздікті арттырып қана қоймай, сонымен бірге пайдаланушылардың ЖИ жүйелеріне сенімін күшейтеді.

Техникалық жүзеге асыру мысалдары

  • PyTorch-пен интеграция жасағанда модельді орау келесі түрде жүзеге асады capsa_torch.wrapper() шығу болжам мен тәуекелден тұратын болады:

Python example met capsa

TensorFlow модельдеріне арналған Capsa декоратор арқылы жұмыс істейді:

tensorflow

Кәсіпорындар мен пайдаланушыларға әсері
NetCare және оның клиенттері үшін бұл технология зор серпіліс болып табылады. Біз тек ақылды ғана емес, сонымен қатар қауіпсіз және галлюцинациялардың ықтималдығы төмен болатындай бұрынғыдан да болжамды AI-қолданбаларды жеткізе аламыз. Бұл ұйымдарға шешімдерді неғұрлым дәл негізде қабылдауға және бизнеске маңызды қосымшаларға AI енгізгендегі қауіптерді азайтуға көмектеседі.

Қорытынды
MIT топ болашақтағы AI тек ақылдырақ болумен шектелмей, ең бастысы қауіпсіз әрі әділ жұмыс істеуге бағытталғанын көрсетеді. NetCare-та біз AI өзінің шектеулері туралы ашық болғанда ғана шынымен пайдалы болатынына сенеміз. Capsa сияқты озық белгісіздікті бағалау құралдарының көмегімен сіз осы көзқарасты іс жүзінде жүзеге асыра аласыз.

Герард

Герард ЖИ кеңесшісі және менеджер ретінде белсенді. Үлкен ұйымдарда кең тәжірибесі арқасында ол мәселені өте тез шешіп, шешімге бағыттай алады. Оны экономикалық бэкграундымен біріктіру іскерлік тұрғыдан салмақты шешімдер қабылдауға ықпал етеді.