MIT doet onderzoek om AI slimmer te maken

Екипът на MIT учи AI модели на това, което все още не са знаели.

Приложението на изкуствения интелект (AI) расте бързо и все повече се вплита в ежедневието ни и в критични индустрии като здравеопазване, телекомуникации и енергетика. Но с голямата мощ идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.

Themis AI на MIT, съоснована и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага пробивно решение. Тяхната технология позволява на AI моделите да „знаят какво не знаят“. Това означава, че AI системите могат сами да сигнализират кога са несигурни относно своите прогнози, което позволява да се предотвратят грешки преди да нанесат вреда.

Защо това е толкова важно?
Много AI модели, дори напредналите, понякога проявяват т.нар. „халюцинации“ — дават неверни или необосновани отговори. В сектори, където решенията имат тежки последици, като медицинска диагноза или автономно шофиране, това може да бъде фатално. Themis AI разработи Capsa — платформа, която прилага количествено измерване на несигурността: тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.

 Как работи това?
Като се обучат моделите на осъзнаване на несигурността (uncertainty awareness), те могат да предоставят изходи с етикет за риск или надеждност. Например: автономен автомобил може да сигнализира, че не е сигурен в дадена ситуация и да активира човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.

Примери за техническа имплементация

  • При интеграция с PyTorch опаковането (wrapping) на модела се извършва чрез capsa_torch.wrapper() като изходът включва както прогнозата, така и риска:

Python example met capsa

За TensorFlow модели Capsa работи с декоратор:

tensorflow

Въздействието за фирмите и потребителите
За NetCare и нейните клиенти тази технология представлява огромна крачка напред. Ние можем да доставяме AI приложения, които не са само интелигентни, но и по-безопасни и по-предсказуеми с по-малък риск от халюцинации. Това помага на организациите да взимат по-добре обосновани решения и да намалят рисковете при внедряване на AI в критични за бизнеса приложения.

Заключение
MIT екип показва, че бъдещето на AI не е само в това да става по-умен, а преди всичко да работи по-безопасно и по-справедливо. В NetCare вярваме, че AI става наистина ценен едва когато е прозрачен относно собствените си ограничения. С усъвършенствани инструменти за количествено измерване на несигурността като Capsa, вие също можете да приложите тази визия на практика.

Герард

Герард работи като AI консултант и мениджър. С богат опит в големи организации той може много бързо да разплете проблем и да го доведе до решение. В комбинация с икономическо образование той осигурява бизнес-отговорни решения.