ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად იჭრება ჩვენს ყოველდღიურ ცხოვრებასა და ისეთ მნიშვნელოვან სექტორებში, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. თუმცა, დიდ ძალასთან ერთად დიდი პასუხისმგებლობაც მოდის: AI სისტემები ზოგჯერ უშვებენ შეცდომებს ან იძლევიან გაურკვეველ პასუხებს, რასაც შესაძლოა სერიოზული შედეგები მოჰყვეს.
რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, მათ შორის მოწინავეებიც, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი იძლევიან მცდარ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, მაგალითად, სამედიცინო დიაგნოსტიკაში ან ავტონომიურ მართვაში, ამან შესაძლოა კატასტროფული შედეგები გამოიწვიოს. Themis AI-მ შეიმუშავა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას (uncertainty quantification): ის დეტალური და სანდო გზით ზომავს და განსაზღვრავს AI-ს მიერ მიღებული შედეგების გაურკვევლობის ხარისხს.
როგორ მუშაობს ეს?
მოდელებისთვის გაურკვევლობის გაცნობიერების (uncertainty awareness) სწავლებით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ნიშნული. მაგალითად: თვითმართვად ავტომობილს შეუძლია მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ მოითხოვოს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ მომხმარებლების ნდობასაც AI სისტემების მიმართ.
capsa_torch.wrapper() სადაც შედეგი მოიცავს როგორც პროგნოზს, ისე რისკის მაჩვენებელს:
დასკვნა
MIT-ის გუნდი გვიჩვენებს, რომ AI-ს მომავალი მხოლოდ უფრო ჭკვიანურ ფუნქციონირებაზე კი არ არის დამოკიდებული, არამედ, უპირველეს ყოვლისა, უფრო უსაფრთხო და სამართლიან მუშაობაზე. NetCare-ში გვჯერა, რომ AI მხოლოდ მაშინ ხდება ნამდვილად ღირებული, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების მიმართ. გაურკვევლობის კვანტიფიკაციის მოწინავე ხელსაწყოებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ეს ხედვა პრაქტიკაში განახორციელოთ.