Застосування штучного інтелекту (ШІ) швидко зростає і все більше вплітається у наше повсякденне життя та високоризикові галузі, такі як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або дають невпевнені відповіді, які можуть мати серйозні наслідки.
Themis AI від MIT, спільно заснована та керована професором Даніелою Рус з лабораторії CSAIL, пропонує проривне рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ самі можуть вказувати, коли вони не впевнені у своїх прогнозах, запобігаючи помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть передові, іноді можуть демонструвати так звані «галюцинації» — вони дають помилкові або необґрунтовані відповіді. У секторах, де рішення мають велике значення, таких як медична діагностика чи автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa, платформу, що застосовує кількісну оцінку невизначеності: вона вимірює та кількісно оцінює невизначеність виходу ШІ детально та надійно.
Як це працює?
Навчаючи моделі усвідомлювати невизначеність, вони можуть маркувати вихідні дані міткою ризику або надійності. Наприклад, автономний автомобіль може вказати, що він не впевнений у ситуації, і активувати людське втручання. Це підвищує не лише безпеку, а й довіру користувачів до систем ШІ.
capsa_torch.wrapper() при цьому вихід складається як з передбачення, так і з ризику:

Висновок
MIT команда MIT показує, що майбутнє ШІ полягає не лише у тому, щоб ставати розумнішим, а й у тому, щоб функціонувати безпечніше та справедливіше. У NetCare ми віримо, що ШІ стане справді цінним лише тоді, коли він прозорий щодо своїх обмежень. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви також можете втілити це бачення у практику.