Застосування штучного інтелекту (ШІ) стрімко зростає і все більше переплітається з нашим повсякденним життям та галузями з високими ставками, такими як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або дають невизначені відповіді, які можуть мати серйозні наслідки.
Themis AI від MIT, співзасновником та керівником якого є професорка Даніела Рус з лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, що дозволяє запобігти помилкам, перш ніж вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть найсучасніші, іноді можуть демонструвати так звані «галюцинації» — вони дають помилкові або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, таких як медична діагностика або автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa, платформу, яка застосовує кількісну оцінку невизначеності: вона вимірює та кількісно оцінює невизначеність вихідних даних ШІ детальним та надійним способом.
Як це працює?
Навчаючи моделі усвідомленню невизначеності, вони можуть надавати вихідним даним мітку ризику або надійності. Наприклад: самокерований автомобіль може вказати, що він не впевнений у ситуації, і тому активувати втручання людини. Це не тільки підвищує безпеку, але й довіру користувачів до систем ШІ.
capsa_torch.wrapper()
, де вихідні дані складаються як з прогнозу, так і з ризику:
Висновок
Команда MIT показує, що майбутнє ШІ полягає не лише в тому, щоб стати розумнішим, але й, перш за все, у безпечнішій та справедливішій роботі. У NetCare ми віримо, що ШІ стає по-справжньому цінним лише тоді, коли він прозорий щодо своїх власних обмежень. Завдяки передовим інструментам кількісної оцінки невизначеності, таким як Capsa, ви також можете втілити це бачення в життя.