Приложението на изкуствения интелект (AI) расте бързо и все повече се вплита в ежедневието ни и в критични индустрии като здравеопазване, телекомуникации и енергетика. Но с голямата мощ идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.
Themis AI на MIT, съоснована и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага пробивно решение. Тяхната технология позволява на AI моделите да „знаят какво не знаят“. Това означава, че AI системите могат сами да сигнализират кога са несигурни относно своите прогнози, което позволява да се предотвратят грешки преди да нанесат вреда.
Защо това е толкова важно?
Много AI модели, дори напредналите, понякога проявяват т.нар. „халюцинации“ — дават неверни или необосновани отговори. В сектори, където решенията имат тежки последици, като медицинска диагноза или автономно шофиране, това може да бъде фатално. Themis AI разработи Capsa — платформа, която прилага количествено измерване на несигурността: тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.
Как работи това?
Като се обучат моделите на осъзнаване на несигурността (uncertainty awareness), те могат да предоставят изходи с етикет за риск или надеждност. Например: автономен автомобил може да сигнализира, че не е сигурен в дадена ситуация и да активира човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.
capsa_torch.wrapper() като изходът включва както прогнозата, така и риска:

Заключение
MIT екип показва, че бъдещето на AI не е само в това да става по-умен, а преди всичко да работи по-безопасно и по-справедливо. В NetCare вярваме, че AI става наистина ценен едва когато е прозрачен относно собствените си ограничения. С усъвършенствани инструменти за количествено измерване на несигурността като Capsa, вие също можете да приложите тази визия на практика.