Приложението на изкуствения интелект (AI) расте бързо и все повече се преплита с ежедневието ни и с индустрии с високи залози като здравеопазване, телекомуникации и енергетика. Но с голяма сила идва и голяма отговорност: AI системите понякога правят грешки или дават несигурни отговори, които могат да имат сериозни последици.
Themis AI от MIT, съосновена и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага революционно решение. Тяхната технология позволява на AI моделите да “знаят какво не знаят”. Това означава, че AI системите сами могат да посочат кога са несигурни относно предсказанията си, като по този начин се предотвратяват грешки, преди да причинят щети.
Защо това е толкова важно?
Много AI модели, дори и напреднали, понякога могат да проявяват така наречени “халюцинации” — те дават грешни или необосновани отговори. В сектори, където решенията са от голямо значение, като медицинска диагностика или автономно шофиране, това може да има катастрофални последици. Themis AI разработи Capsa, платформа, която прилага количествено измерване на несигурността: тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.
Как работи това?
Като се обучат моделите да са осведомени за несигурността, те могат да маркират изходите със етикет за риск или надеждност. Например: автономен автомобил може да посочи, че не е сигурен относно ситуация и следователно да задейства човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.
capsa_torch.wrapper() като изходът се състои както от предсказанието, така и от риска:

Заключение
MIT екип MIT показва, че бъдещето на AI не се свежда само до по-голяма интелигентност, а предимно до по-безопасно и справедливо функциониране. В NetCare вярваме, че AI става истински ценен едва когато е прозрачен относно собствените си ограничения. С напреднали инструменти за количествено измерване на несигурността като Capsa можете и вие да приложите тази визия на практика.