MIT team at work

Команда MIT навчає моделі ШІ того, чого вони ще не знали.

Застосування штучного інтелекту (ШІ) стрімко зростає і все більше переплітається з нашим повсякденним життям та галузями з високими ставками, такими як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або дають невизначені відповіді, які можуть мати серйозні наслідки.

Themis AI від MIT, співзасновником та керівником якого є професорка Даніела Рус з лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, що дозволяє запобігти помилкам, перш ніж вони завдадуть шкоди.

Чому це так важливо?
Багато моделей ШІ, навіть найсучасніші, іноді можуть демонструвати так звані «галюцинації» — вони дають помилкові або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, таких як медична діагностика або автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa, платформу, яка застосовує кількісну оцінку невизначеності: вона вимірює та кількісно оцінює невизначеність вихідних даних ШІ детальним та надійним способом.

 Як це працює?
Навчаючи моделі усвідомленню невизначеності, вони можуть надавати вихідним даним мітку ризику або надійності. Наприклад: самокерований автомобіль може вказати, що він не впевнений у ситуації, і тому активувати втручання людини. Це не тільки підвищує безпеку, але й довіру користувачів до систем ШІ.

Приклади технічної реалізації

  • При інтеграції з PyTorch обгортання моделі відбувається за допомогою capsa_torch.wrapper(), де вихідні дані складаються як з прогнозу, так і з ризику:

Python example met capsa

Для моделей TensorFlow Capsa працює з декоратором:

tensorflow

Вплив на компанії та користувачів
Для NetCare та її клієнтів ця технологія означає величезний крок вперед. Ми можемо надавати ШІ-додатки, які є не тільки інтелектуальними, але й безпечними та більш передбачуваними з меншою ймовірністю галюцинацій. Це допомагає організаціям приймати більш обґрунтовані рішення та зменшувати ризики при впровадженні ШІ в критично важливі бізнес-додатки.

Висновок
Команда MIT показує, що майбутнє ШІ полягає не лише в тому, щоб стати розумнішим, але й, перш за все, у безпечнішій та справедливішій роботі. У NetCare ми віримо, що ШІ стає по-справжньому цінним лише тоді, коли він прозорий щодо своїх власних обмежень. Завдяки передовим інструментам кількісної оцінки невизначеності, таким як Capsa, ви також можете втілити це бачення в життя.

Gerard

Gerard

Герард є активним консультантом та менеджером зі штучного інтелекту. Маючи великий досвід роботи у великих організаціях, він може надзвичайно швидко розкрити проблему та знайти рішення. У поєднанні з економічною освітою він забезпечує прийняття комерційно обґрунтованих рішень.

AIR (Artificial Intelligence Robot)