MIT team at work

Команда MIT навчає моделі ШІ того, чого вони ще не знали.

Застосування штучного інтелекту (ШІ) швидко зростає і все більше переплітається з нашим повсякденним життям та галузями з високими ставками, такими як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або дають невизначені відповіді, які можуть мати серйозні наслідки.

Themis AI від MIT, співзасновником і керівником якого є професор Даніела Рус з лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, що дозволяє запобігти помилкам до того, як вони завдадуть шкоди.

Чому це так важливо?
Багато моделей ШІ, навіть передові, іноді можуть проявляти так звані «галюцинації» — вони дають помилкові або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, таких як медична діагностика або автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa, платформу, яка застосовує кількісну оцінку невизначеності: вона вимірює та кількісно визначає невизначеність вихідних даних ШІ детально та надійно.

 Як це працює?
Навчаючи моделі усвідомленню невизначеності, вони можуть надавати вихідним даним мітку ризику або надійності. Наприклад: самокерований автомобіль може вказати, що він не впевнений у ситуації, і тому активувати втручання людини. Це не тільки підвищує безпеку, але й довіру користувачів до систем ШІ.

Приклади технічної реалізації

  • При інтеграції з PyTorch обгортання моделі здійснюється за допомогою capsa_torch.wrapper(), при цьому вихідні дані складаються як з прогнозу, так і з ризику:

Python example met capsa

Для моделей TensorFlow Capsa працює з декоратором:

tensorflow

Вплив на компанії та користувачів
Для NetCare та її клієнтів ця технологія означає величезний крок вперед. Ми можемо надавати додатки ШІ, які є не тільки інтелектуальними, але й безпечними та більш передбачуваними з меншою ймовірністю галюцинацій. Це допомагає організаціям приймати більш обґрунтовані рішення та зменшувати ризики при впровадженні ШІ в критично важливі для бізнесу додатки.

Висновок
Команда MIT показує, що майбутнє ШІ полягає не тільки в тому, щоб стати розумнішим, але й, що найважливіше, у безпечнішому та справедливішому функціонуванні. У NetCare ми віримо, що ШІ стає по-справжньому цінним лише тоді, коли він прозорий щодо своїх власних обмежень. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви також можете втілити це бачення в життя.

Gerard

Gerard

Жерар активно працює як консультант з ШІ та менеджер. Завдяки великому досвіду роботи у великих організаціях він може дуже швидко розплутати проблему та рухатися до її вирішення. Поєднуючи це з економічним досвідом, він забезпечує бізнесово обґрунтовані рішення.

AIR (Artificial Intelligence Robot)