MIT იკვლევს ხელოვნური ინტელექტის გასამარტივებლად

MIT-ის გუნდი AI მოდელებს ასწავლის იმას, რაც მათ ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად ერწყმის ჩვენს ყოველდღიურ ცხოვრებასა და მაღალი რისკის ინდუსტრიებს, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდი ძალა დიდ პასუხისმგებლობასაც გულისხმობს: AI სისტემები ზოგჯერ შეცდომებს უშვებენ ან არასაიმედო პასუხებს იძლევიან, რამაც შეიძლება სერიოზული შედეგები გამოიწვიოს.

MIT-ის Themis AI, რომელიც დააარსა და ხელმძღვანელობს პროფესორი დანიელა რუსი CSAIL-ის ლაბორატორიიდან, რევოლუციურ გადაწყვეტას გვთავაზობს. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს, „იცოდნენ, რა არ იციან“. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდესაც მათი პროგნოზები არასაიმედოა, რაც ხელს უშლის ზიანის მიყენებამდე შეცდომების დაშვებას.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, თუნდაც მოწინავე, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ – ისინი გასცემენ არასწორ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამან შეიძლება კატასტროფული შედეგები გამოიწვიოს. Themis AI-მა შექმნა Capsa – პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას: ის დეტალურად და სანდოდ ზომავს AI-ის შედეგების გაურკვევლობის ხარისხს.

 როგორ მუშაობს?
მოდელებისთვის გაურკვევლობის შესახებ ცნობიერების მიტანით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ეტიკეტი. მაგალითად: ავტონომიურმა მანქანამ შეიძლება მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიუროს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ ზრდის მომხმარებელთა ნდობას ხელოვნური ინტელექტის სისტემების მიმართ.

ტექნიკური იმპლემენტაციის მაგალითები

  • PyTorch-თან ინტეგრაციისას, მოდელის შეფუთვა ხდება capsa_torch.wrapper() სადაც შედეგი მოიცავს როგორც პროგნოზს, ასევე რისკს:

Python example met capsa

TensorFlow მოდელებისთვის, Capsa იყენებს დეკორატორს:

ტენსორფლოუ

გავლენა ბიზნესსა და მომხმარებლებზე
NetCare-ისა და მისი კლიენტებისთვის ეს ტექნოლოგია უზარმაზარ წინგადადგმულ ნაბიჯს ნიშნავს. ჩვენ შეგვიძლია შევთავაზოთ ხელოვნური ინტელექტის (AI) ისეთი აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უფრო მეტად პროგნოზირებადია, ნაკლები ჰალუცინაციების რისკით. ეს ორგანიზაციებს ეხმარება უკეთ დასაბუთებული გადაწყვეტილებების მიღებაში და ამცირებს რისკებს AI-ის დანერგვისას ბიზნესისთვის კრიტიკულ აპლიკაციებში.

დასკვნა
MIT გუნდი აჩვენებს, რომ ხელოვნური ინტელექტის მომავალი არა მხოლოდ უფრო ჭკვიანი გახდომაა, არამედ უპირველეს ყოვლისა, უფრო უსაფრთხო და სამართლიანი ფუნქციონირება. NetCare-ში ჩვენ გვჯერა, რომ ხელოვნური ინტელექტი ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების შესახებ. ისეთი მოწინავე გაურკვევლობის კვანტიფიკაციის ხელსაწყოებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ეს ხედვა პრაქტიკაში განახორციელოთ.

გერარდი

გერარდი მუშაობს AI კონსულტანტისა და მენეჯერის პოზიციებზე. დიდ ორგანიზაციებთან მუშაობის მრავალწლიანი გამოცდილებით, მას შეუძლია განსაკუთრებით სწრაფად გაშიფროს პრობლემა და მიაღწიოს მის გადაწყვეტას. ეკონომიკური განათლების კომბინაცია უზრუნველყოფს ბიზნესისთვის გამართლებულ გადაწყვეტილებებს.

AIR (ხელოვნური ინტელექტის რობოტი)