Застосування штучного інтелекту (ШІ) швидко зростає та все більше переплітається з нашим повсякденним життям і критично важливими галузями, як-от охорона здоров'я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді припускаються помилок або дають невпевнені відповіді, що може мати серйозні наслідки.
Themis AI від MIT, співзасновником і керівником якої є професор Даніела Рус із лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дає змогу моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, що дозволяє запобігти помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть передові, іноді можуть демонструвати так звані «галюцинації» — вони дають хибні або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, як-от медична діагностика чи автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa — платформу, яка застосовує кількісну оцінку невизначеності (uncertainty quantification): вона вимірює та кількісно визначає невизначеність результатів роботи ШІ у детальний і надійний спосіб.
Як це працює?
Надаючи моделям обізнаність про невизначеність, можна додавати до їхніх результатів мітку ризику чи надійності. Наприклад, безпілотний автомобіль може вказати, що він не впевнений у певній ситуації, і тому активувати втручання людини. Це не лише підвищує безпеку, але й довіру користувачів до систем ШІ.
capsa_torch.wrapper() де вихідні дані складаються як із прогнозу, так і з ризику:

Висновок
MIT Команда показує, що майбутнє ШІ полягає не лише в тому, щоб ставати розумнішим, а й, що важливіше, у безпечнішому та справедливішому функціонуванні. У NetCare ми віримо, що ШІ стає справді цінним лише тоді, коли він прозорий щодо власних обмежень. Завдяки передовим інструментам кількісної оцінки невизначеності, як-от Capsa, ви також можете втілити це бачення на практиці.