Застосування штучного інтелекту (ШІ) стрімко зростає і стає все більш інтегрованим у наше повсякденне життя та галузі з високими ставками, такі як охорона здоров'я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді припускаються помилок або надають непевні відповіді, що може мати серйозні наслідки.
Чому це так важливо?
Багато моделей ШІ, навіть передових, іноді можуть демонструвати так звані «галюцинації» — вони надають помилкові або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, як-от медична діагностика чи автономне водіння, це може призвести до катастрофічних наслідків. Themis AI розробила Capsa, платформу, яка застосовує кількісну оцінку невизначеності (uncertainty quantification): вона вимірює та кількісно оцінює невизначеність результатів роботи ШІ у детальний та надійний спосіб.
Як це працює?
Навчаючи моделі усвідомленню невизначеності, можна додавати до їхніх результатів мітку ризику або надійності. Наприклад: безпілотний автомобіль може вказати, що він не впевнений у ситуації, і тому активувати втручання людини. Це підвищує не лише безпеку, а й довіру користувачів до систем ШІ.
capsa_torch.wrapper() де результат складається як з прогнозу, так і з рівня ризику:
Висновок
MIT команда показує, що майбутнє ШІ полягає не лише в тому, щоб ставати розумнішим, а насамперед у тому, щоб функціонувати безпечніше та чесніше. У NetCare ми віримо, що ШІ стає справді цінним лише тоді, коли він прозорий щодо власних обмежень. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви можете втілити це бачення в життя.