Приложението на изкуствения интелект (AI) расте бързо и все повече се преплита с нашия ежедневен живот и с индустрии с високи залози като здравеопазване, телекомуникации и енергетика. Но с голяма сила идва и голяма отговорност: AI системите понякога правят грешки или дават несигурни отговори, които могат да имат сериозни последици.
Защо това е толкова важно?
Много AI модели, дори и напреднали, понякога могат да проявяват така наречените „халюцинации“ — те дават грешни или необосновани отговори. В сектори, където решенията са от голямо значение, като медицинска диагностика или автономно шофиране, това може да има катастрофални последици. Themis AI разработи Capsa, платформа, която прилага количествено оценяване на несигурността: тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.
Как работи това?
Като се въведе осъзнаване на несигурността в моделите, те могат да маркират изходите си с етикет за риск или надеждност. Например, самоуправляващ автомобил може да посочи, че не е сигурен относно дадена ситуация и следователно да задейства човешка намеса. Това не само повишава безопасността, но и доверието на потребителите в AI системите.
capsa_torch.wrapper() като изходът се състои както от предсказанието, така и от риска:
Заключение
MIT екип Показва, че бъдещето на AI не се върти само около ставане по-умно, а предимно около по-безопасно и по-справедливо функциониране. В NetCare вярваме, че AI става истински ценен едва когато е прозрачен относно собствените си ограничения. С напреднали инструменти за количествено оценяване на несигурността като Capsa можете и вие да приложите тази визия на практика.