MIT doet onderzoek om AI slimmer te maken

MIT-ის გუნდი ასწავლის AI-მოდელებს იმას, რასაც ისინი ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად არის შერწყმული ჩვენი ყოველდღიური ცხოვრებასა და მაღალრისკიან ინდუსტრიებთან, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. თუმცა დიდი ძალის თანმხლებად მოდის დიდი პასუხისმგებლობა: AI-სისტემები ზოგჯერ შეცდომებს უშვებენ ან არასტაბილურ პასუხებს აძლევენ, რაც შესაძლოა მძიმე შედეგები ჰქონდეს.

MIT-ის Themis AI, რომელიც თანაარსებული და ხელმძღვანელობს CSAIL ლაბორატორიის პროფესორი დანიელა რუსი, სთავაზობს წინსულ, რესურსულ გადაწყვეტას. მათი ტექნოლოგია აძლევს AI-მოდელებს შესაძლებლობას „იცოდნენ ის, რისი ცოდნაც არ აქვთ“. ეს იმას ნიშნავს, რომ AI-სისტემები თავად შეძლებენ მიუთითონ, როდის არიან არაცდუნებულები თავიანთ პროგნოზებზე, რაც ხელს შეუწყობს შეცდომების თავიდან აცილებას, სანამ ისინი ზიანს მიაყენებენ.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრ AI-მოდელს, მათ შორის მოწინავე მოდელებსაც, ზოგჯერ შეუძლიათ გამოჩნდნენ sogenannte „ჰალუცინაციები“ — ისინი იძლევიან მცდარ ან დაუდასტურებელ პასუხებს. გადაწყვეტილებების მნიშვნელოვან სფეროებში, როგორიცაა მედიცინული დიაგნოზი ან ავტომატური მართვა, ეს შეიძლება კატასტროფული შედეგები მოიტანოს. Themis AI-მა შექმნა Capsa — პლატფორმა, რომელიც არტiculiert uncertainty quantification–ს: იგი ზომავს და რაოდენობრივად ავლენს AI-გამოყვანილობის_uncertainty-ს დეტალურ და სანდო გზით.

 როგორ მუშაობს ეს?
მოდელებს uncertainty awareness-ის სწავლებით, ისინი შეძლებენ თავიანთ გამომავალს მიაწერონ რისკის ან სანდოების ლეიბლი. მაგალითად: თვითმავალი ავტომობილი შეიძლება მიუთითოს, რომ გარკვეულ სიტუაციაში არ არის დარწმუნებული და შესაბამისად დაააქტიუროს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ აძლიერებს მომხმარებელთა ნდობას AI-სისტემების მიმართ.

ტექნიკური შესრულების მაგალითად

  • PyTorch-თან ინტეგრაციის დროს მოდელის გამრუდება (wrapping) ხდება შემდეგგვარად capsa_torch.wrapper() სადაც გამომავალი მოიცავს zarówno პროგნოზს, როგორც რისკს:

Python example met capsa

TensorFlow-მოდელებისთვის Capsa მუშაობს დეკორატორის გამოყენებით:

tensorflow

კომპანიებსა და მომხმარებელზე გავლენა
NetCare-ისა და მის კლიენტებისათვის ეს ტექნოლოგია ნიშნავს დიდ ნაბიჯს წინ. ჩვენ შეგვიძლია მივაწოდოთ AI-საწარმოებები, რომლებიც არა მხოლოდ ინტელექტუალურად ძლიერი არიან, არამედ უსაფრთხო და უკეთ პროგნოზირებადი, მცირე ალბათობით ჰალუცინაციებისა. ეს ეხმარება ორგანიზაციებს უკეთ დამტკიცებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში AI-ის დანერგვისას ბიზნესზე კრიტიკულ აპლიკაციებში.

დასკვნა
MIT გუნდი ჩვენი ხედვით, AI-ის მომავალი არ ნიშნავს მხოლოდ უფრო ჭკვიანურს ყოფნას, არამედ მთავარი ამოცანაა უფრო უსაფრთხოდ და სამართლიანად მოქმედება. NetCare-ში გვწამს, რომ AI მაშინ ხდება ნამდვილი ღირებულება, როდესაც მან ნათლად უნდა შეაჩეროს თავისი შემზღუდველი შესაძლებლობები. Capsa-ს მსგავსის მოწინავე uncertainty quantification–ს საშუალებით თქვენ შეგიძლიათ ამ ხედვას პრაქტიკაში განახორციელოთ.

ჟერარდი

ჟერარდი მოღვაწეობს როგორც AI კონსულტანტი და მენეჯერი. დიდი ორგანიზაციებში მდიდარი გამოცდილებით მას შეუძლია ძალიან სწრაფად დაიხვისხას პრობლემა და მიიყვანოს იგი გადაწყვეტამდე. ეკონომიკურ ბэкგრაუნდთან ერთად ის უზრუნველყოფს ბიზნესისთვის პასუხისმგებლიანი გადაწყვეტილებებს.