MIT team at work

Команда MIT навчає моделі ШІ того, чого вони ще не знали.

Застосування штучного інтелекту (ШІ) швидко зростає і все більше переплітається з нашим повсякденним життям та галузями з високими ставками, такими як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або дають невизначені відповіді, які можуть мати серйозні наслідки.

Themis AI від MIT, співзасновником та керівником якого є професор Даніела Рус з лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, що дозволяє запобігти помилкам, перш ніж вони завдадуть шкоди.

Чому це так важливо?
Багато моделей ШІ, навіть передові, іноді можуть демонструвати так звані «галюцинації» — вони дають помилкові або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, таких як медична діагностика або автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa, платформу, яка застосовує кількісну оцінку невизначеності: вона вимірює та кількісно оцінює невизначеність вихідних даних ШІ детально та надійно.

 Як це працює?
Надаючи моделям усвідомлення невизначеності, вони можуть надавати вихідним даним мітку ризику або надійності. Наприклад: самокерований автомобіль може вказати, що він не впевнений у ситуації, і тому активувати втручання людини. Це не тільки підвищує безпеку, але й довіру користувачів до систем ШІ.

Приклади технічної реалізації

  • При інтеграції з PyTorch обгортання моделі відбувається за допомогою capsa_torch.wrapper(), де вихідні дані складаються як з прогнозу, так і з ризику:

Python example met capsa

Для моделей TensorFlow Capsa працює з декоратором:

tensorflow

Вплив на компанії та користувачів
Для NetCare та її клієнтів ця технологія означає величезний крок вперед. Ми можемо надавати програми ШІ, які є не тільки інтелектуальними, але й безпечними та більш передбачуваними з меншою ймовірністю галюцинацій. Це допомагає організаціям приймати більш обґрунтовані рішення та зменшувати ризики при впровадженні ШІ в критично важливі для бізнесу програми.

Висновок
Команда MIT показує, що майбутнє ШІ полягає не лише в тому, щоб стати розумнішим, але й, перш за все, у безпечнішому та справедливішому функціонуванні. У NetCare ми віримо, що ШІ стає справді цінним лише тоді, коли він прозорий щодо своїх власних обмежень. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви також можете втілити це бачення в життя.

Gerard

Gerard

Герард є активним консультантом і менеджером зі штучного інтелекту. Маючи великий досвід роботи у великих організаціях, він може надзвичайно швидко розплутати проблему та знайти рішення. У поєднанні з економічною освітою він забезпечує комерційно обґрунтований вибір.

AIR (Artificial Intelligence Robot)