ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად იჭრება ჩვენს ყოველდღიურ ცხოვრებასა და ისეთ მნიშვნელოვან სექტორებში, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. თუმცა, დიდ ძალას დიდი პასუხისმგებლობაც ახლავს: AI სისტემები ზოგჯერ უშვებენ შეცდომებს ან იძლევიან გაურკვეველ პასუხებს, რასაც შესაძლოა სერიოზული შედეგები მოჰყვეს.
რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, მათ შორის მოწინავეებიც, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი იძლევიან მცდარ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, მაგალითად, სამედიცინო დიაგნოსტიკაში ან ავტონომიურ მართვაში, ამას შესაძლოა კატასტროფული შედეგები მოჰყვეს. Themis AI-მ შეიმუშავა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას (uncertainty quantification): ის ზომავს და აფასებს AI-ს მიერ მიღებული შედეგების გაურკვევლობას დეტალური და სანდო გზით.
როგორ მუშაობს ეს?
მოდელებისთვის გაურკვევლობის გაცნობიერების სწავლებით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ნიშნული. მაგალითად: თვითმართვად ავტომობილს შეუძლია მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ მოითხოვოს ადამიანის ჩარევა. ეს ზრდის არა მხოლოდ უსაფრთხოებას, არამედ მომხმარებლების ნდობას AI სისტემების მიმართ.
capsa_torch.wrapper() სადაც გამომავალი მონაცემები მოიცავს როგორც პროგნოზს, ისე რისკს:
დასკვნა
MIT-ის გუნდი გვიჩვენებს, რომ AI-ს მომავალი მხოლოდ უფრო ჭკვიან მოდელებზე კი არა, არამედ უფრო უსაფრთხო და სამართლიან ფუნქციონირებაზეა დამოკიდებული. NetCare-ში გვჯერა, რომ AI მხოლოდ მაშინ ხდება ნამდვილად ღირებული, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების მიმართ. გაურკვევლობის კვანტიფიკაციის მოწინავე ხელსაწყოებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ეს ხედვა პრაქტიკაში განახორციელოთ.