Застосування штучного інтелекту (ШІ) швидко зростає і все більше переплітається з нашим повсякденним життям та критично важливими галузями, такими як охорона здоров'я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді припускаються помилок або дають непевні відповіді, що може мати серйозні наслідки.
Themis AI від MIT, співзасновником і керівником якої є професор Даніела Рус із лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, що дозволяє запобігти помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть найсучасніших, іноді можуть демонструвати так звані «галюцинації» — вони надають хибні або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, як-от медична діагностика чи автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa — платформу, яка застосовує кількісну оцінку невизначеності (uncertainty quantification): вона вимірює та кількісно визначає невизначеність результатів роботи ШІ у детальний і надійний спосіб.
Як це працює?
Надаючи моделям обізнаність про невизначеність, можна маркувати їхні результати міткою ризику чи надійності. Наприклад, безпілотний автомобіль може вказати, що він не впевнений у певній ситуації, і тому активувати втручання людини. Це не лише підвищує безпеку, але й довіру користувачів до систем ШІ.
capsa_torch.wrapper() де вихідні дані складаються як із прогнозу, так і з ризику:

Висновок
MIT команда показує, що майбутнє ШІ полягає не лише в тому, щоб стати розумнішим, а й, що важливіше, у безпечнішому та чеснішому функціонуванні. У NetCare ми віримо, що ШІ стає справді цінним лише тоді, коли він прозорий щодо власних обмежень. Завдяки передовим інструментам квантифікації невизначеності, як-от Capsa, ви також можете втілити це бачення на практиці.