Приложението на изкуствения интелект (AI) се разраства бързо и става все по-тясно свързано с нашето ежедневие и сектори с високи залози като здравеопазването, телекомуникациите и енергетиката. Но с голямата сила идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.
Защо това е толкова важно?
Много AI модели, дори и напредналите, понякога могат да проявят т.нар. „халюцинации“ — те дават грешни или неоснователни отговори. В сектори, където решенията са от голямо значение, като медицинската диагностика или автономното шофиране, това може да има катастрофални последици. Themis AI разработи Capsa, платформа, която прилага количествено определяне на несигурността (uncertainty quantification): тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.
Как работи това?
Чрез въвеждане на „осъзнатост за несигурността“ (uncertainty awareness) в моделите, те могат да придружават изходните си данни с етикет за риск или надеждност. Например: един самоуправляващ се автомобил може да сигнализира, че не е сигурен в дадена ситуация и поради това да активира човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.
capsa_torch.wrapper() при което изходът се състои както от прогнозата, така и от риска:
Заключение
Екипът на MIT екип показва, че бъдещето на AI не се върти само около това да става по-умен, а преди всичко около това да функционира по-безопасно и по-честно. В NetCare вярваме, че AI става наистина ценен само когато е прозрачен относно собствените си ограничения. С усъвършенствани инструменти за количествено определяне на несигурността като Capsa, можете да приложите тази визия на практика.