Приложението на изкуствения интелект (AI) се разраства бързо и става все по-тясно свързано с нашето ежедневие и индустрии с високи залози като здравеопазването, телекомуникациите и енергетиката. Но с голямата сила идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.
Защо това е толкова важно?
Много AI модели, дори и напредналите, понякога могат да проявят т.нар. „халюцинации“ – те дават грешни или неоснователни отговори. В сектори, където решенията са от голямо значение, като медицинската диагностика или автономното шофиране, това може да има катастрофални последици. Themis AI разработи Capsa, платформа, която прилага количествено определяне на несигурността (uncertainty quantification): тя измерва и количествено определя несигурността на AI изхода по детайлен и надежден начин.
Как работи?
Чрез внедряване на осъзнатост за несигурността (uncertainty awareness) в моделите, те могат да добавят етикет за риск или надеждност към своите резултати. Например: един самоуправляващ се автомобил може да сигнализира, че не е сигурен в дадена ситуация и поради това да активира човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.
capsa_torch.wrapper() при което изходът се състои както от прогнозата, така и от риска:
Заключение
Масачузетският технологичен институт екип показва, че бъдещето на AI не се върти само около това да става по-умен, а преди всичко около по-безопасното и по-честно функциониране. В NetCare вярваме, че AI става наистина ценен само когато е прозрачен относно собствените си ограничения. С усъвършенствани инструменти за количествено определяне на несигурността като Capsa, вие също можете да приложите тази визия на практика.