MIT ატარებს კვლევას AI-ს გასაუმჯობესებლად

MIT-ის გუნდი ხელოვნურ ინტელექტს იმას ასწავლის, რაც აქამდე არ იცოდა.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად იჭრება ჩვენს ყოველდღიურ ცხოვრებასა და ისეთ მნიშვნელოვან სექტორებში, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. თუმცა, დიდ ძალას დიდი პასუხისმგებლობაც ახლავს: AI სისტემები ზოგჯერ უშვებენ შეცდომებს ან იძლევიან გაურკვეველ პასუხებს, რასაც შესაძლოა სერიოზული შედეგები მოჰყვეს.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, მათ შორის მოწინავეებიც, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი იძლევიან მცდარ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, მაგალითად, სამედიცინო დიაგნოსტიკაში ან ავტონომიურ მართვაში, ამას შესაძლოა კატასტროფული შედეგები მოჰყვეს. Themis AI-მ შეიმუშავა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას (uncertainty quantification): ის ზომავს და აფასებს AI-ს მიერ მიღებული შედეგების გაურკვევლობას დეტალური და სანდო გზით.

 როგორ მუშაობს ეს?
მოდელებისთვის გაურკვევლობის გაცნობიერების სწავლებით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ნიშნული. მაგალითად: თვითმართვად ავტომობილს შეუძლია მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ მოითხოვოს ადამიანის ჩარევა. ეს ზრდის არა მხოლოდ უსაფრთხოებას, არამედ მომხმარებლების ნდობას AI სისტემების მიმართ.

ტექნიკური იმპლემენტაციის მაგალითები
  • PyTorch-თან ინტეგრაციისას მოდელის შეფუთვა (wrapping) ხდება შემდეგი გზით: capsa_torch.wrapper() სადაც გამომავალი მონაცემები მოიცავს როგორც პროგნოზს, ისე რისკს:
Python example met capsa
TensorFlow-ის მოდელებისთვის Capsa მუშაობს დეკორატორის საშუალებით:
tensorflow
გავლენა ბიზნესსა და მომხმარებლებზე
NetCare-ისა და მისი კლიენტებისთვის ეს ტექნოლოგია უზარმაზარი წინგადადგმული ნაბიჯია. ჩვენ შეგვიძლია მივაწოდოთ AI-აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უკეთ პროგნოზირებადი, ჰალუცინაციების ნაკლები ალბათობით. ეს ეხმარება ორგანიზაციებს უფრო დასაბუთებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში ბიზნესისთვის კრიტიკულ აპლიკაციებში ხელოვნური ინტელექტის დანერგვისას.

დასკვნა
MIT-ის გუნდი გვიჩვენებს, რომ AI-ს მომავალი მხოლოდ უფრო ჭკვიან მოდელებზე კი არა, არამედ უფრო უსაფრთხო და სამართლიან ფუნქციონირებაზეა დამოკიდებული. NetCare-ში გვჯერა, რომ AI მხოლოდ მაშინ ხდება ნამდვილად ღირებული, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების მიმართ. გაურკვევლობის კვანტიფიკაციის მოწინავე ხელსაწყოებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ეს ხედვა პრაქტიკაში განახორციელოთ.

ჯერარდი

ჯერარდი მუშაობს როგორც AI კონსულტანტი და მენეჯერი. მსხვილ ორგანიზაციებში მიღებული დიდი გამოცდილებით, მას შეუძლია განსაკუთრებით სწრაფად გააანალიზოს პრობლემა და მოძებნოს გადაწყვეტის გზები. ეკონომიკურ განათლებასთან ერთად, ეს მას საშუალებას აძლევს მიიღოს ბიზნესისთვის გამართლებული გადაწყვეტილებები.