Застосування штучного інтелекту (ШІ) швидко зростає і все більше переплітається з нашим повсякденним життям та галузями з високими ставками, такими як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або дають невизначені відповіді, які можуть мати серйозні наслідки.
Themis AI від MIT, співзасновником і керівником якого є професор Даніела Рус з лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, що дозволяє запобігти помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть передові, іноді можуть проявляти так звані «галюцинації» — вони дають помилкові або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, таких як медична діагностика або автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa, платформу, яка застосовує кількісну оцінку невизначеності: вона вимірює та кількісно визначає невизначеність вихідних даних ШІ детально та надійно.
Як це працює?
Навчаючи моделі усвідомленню невизначеності, вони можуть надавати вихідним даним мітку ризику або надійності. Наприклад: самокерований автомобіль може вказати, що він не впевнений у ситуації, і тому активувати втручання людини. Це не тільки підвищує безпеку, але й довіру користувачів до систем ШІ.
capsa_torch.wrapper()
, при цьому вихідні дані складаються як з прогнозу, так і з ризику:
Висновок
Команда MIT показує, що майбутнє ШІ полягає не тільки в тому, щоб стати розумнішим, але й, що найважливіше, у безпечнішому та справедливішому функціонуванні. У NetCare ми віримо, що ШІ стає по-справжньому цінним лише тоді, коли він прозорий щодо своїх власних обмежень. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви також можете втілити це бачення в життя.