MIT провежда изследвания, за да направи AI по-умен

Екипът от MIT обучава AI модели за неща, които те все още не знаят.

Приложението на изкуствения интелект (AI) расте бързо и все повече се преплита с ежедневието ни и с индустрии с високи залози като здравеопазване, телекомуникации и енергетика. Но с голяма сила идва и голяма отговорност: AI системите понякога правят грешки или дават несигурни отговори, които могат да имат сериозни последици.

Themis AI от MIT, съосновена и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага революционно решение. Тяхната технология позволява на AI моделите да “знаят какво не знаят”. Това означава, че AI системите сами могат да посочат кога са несигурни относно предсказанията си, като по този начин се предотвратяват грешки, преди да причинят щети.

Защо това е толкова важно?
Много AI модели, дори и напреднали, понякога могат да проявяват така наречени “халюцинации” — те дават грешни или необосновани отговори. В сектори, където решенията са от голямо значение, като медицинска диагностика или автономно шофиране, това може да има катастрофални последици. Themis AI разработи Capsa, платформа, която прилага количествено измерване на несигурността: тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.

 Как работи това?
Като се обучат моделите да са осведомени за несигурността, те могат да маркират изходите със етикет за риск или надеждност. Например: автономен автомобил може да посочи, че не е сигурен относно ситуация и следователно да задейства човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.

Примери за техническа имплементация

  • При интеграция с PyTorch се обвива моделът чрез capsa_torch.wrapper() като изходът се състои както от предсказанието, така и от риска:

Python example met capsa

За TensorFlow модели Capsa работи с декоратор:

TensorFlow

Въздействието за фирмите и потребителите
За NetCare и нейните клиенти тази технология означава огромна стъпка напред. Ние можем да доставяме AI решения, които не само са интелигентни, но и безопасни и по‑добре предвидими с по‑малка вероятност от халюцинации. Това помага на организациите да вземат по‑добре обосновани решения и да намалят рисковете при внедряването на AI в бизнес‑критични приложения.

Заключение
MIT екип MIT показва, че бъдещето на AI не се свежда само до по-голяма интелигентност, а предимно до по-безопасно и справедливо функциониране. В NetCare вярваме, че AI става истински ценен едва когато е прозрачен относно собствените си ограничения. С напреднали инструменти за количествено измерване на несигурността като Capsa можете и вие да приложите тази визия на практика.

Герард

Герард е активен като AI консултант и мениджър. С богат опит в големи организации той може изключително бързо да разкрие проблем и да работи към решение. Комбиниран с икономическо образование, той осигурява бизнес‑отговорни избори.