Застосування штучного інтелекту (ШІ) швидко зростає і все більше вплітається в наше повсякденне життя та високоризикові галузі, такі як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або дають невпевнені відповіді, які можуть мати серйозні наслідки.
Чому це так важливо?
Багато моделей ШІ, навіть просунутих, іноді можуть демонструвати так звані «галюцинації» — вони дають помилкові або необґрунтовані відповіді. У секторах, де рішення мають великий ваговий вплив, таких як медична діагностика чи автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa, платформу, що застосовує кількісну оцінку невизначеності: вона вимірює та кількісно оцінює невизначеність виходу ШІ детально та надійно.
Як це працює?
Навчаючи моделі усвідомлювати невизначеність, можна додавати до їхніх результатів мітку ризику або надійності. Наприклад, автономний автомобіль може вказати, що він не впевнений у ситуації, і тому активувати людське втручання. Це підвищує не лише безпеку, а й довіру користувачів до систем ШІ.
capsa_torch.wrapper() де вихід складається як з передбачення, так і з ризику:
Висновок
MIT команда Показує, що майбутнє ШІ не лише полягає у тому, щоб ставати розумнішим, а й, перш за все, у безпечнішій та справедливішій роботі. У NetCare ми віримо, що ШІ стане справді цінним лише тоді, коли він прозорий щодо своїх обмежень. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви також можете втілити це бачення в практику.