MIT-მა კვლევა აკეთებს AI-ს უფრო ჭკვიანის გახდომის მიზნით

MIT-ის გუნდი ასწავლის AI მოდელებს, რაც ისინი ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და უფრო მეტად ინტეგრირდება ჩვენს ყოველდღიურ ცხოვრებაში და მაღალი რისკის ინდუსტრიებში, როგორიცაა ჯანმრთელობის დაცვის, ტელეკომუნიკაციებისა და ენერგიის სექტორები. თუმცა, დიდი ძალასთან მოდის დიდი პასუხისმგებლობა: AI სისტემები ზოგჯერ შეცდომებს აკეთებენ ან უგონივრზე პასუხებს იძლევიან, რაც დიდი შედეგებს შეიძლება ჰქონდეს.

MIT-ის Themis AI, რომელიც თანა-დამფუძნებულია და ხელმძღვანელობს პროფესორ დანილა რუს, CSAIL ლაბორატორიისგან, სთავაზობს ინოვაციურ გადაწყვეტას. მათი ტექნოლოგია აძლევს AI მოდელებს შესაძლებლობას ‘იცნენ, რა არ იციან’. ეს ნიშნავს, რომ AI სისტემები თვითონ შეძლებენ მიუთითონ, როდესაც ისინი არასანდოა თავიანთ პროგნოზებზე, რაც შეცდომების თავიდან აცილებას საშუალებას აძლევს, სანამ ისინი ზიანს იწვევს.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, თუნდაც განვითარებული, შეიძლება ზოგჯერ აჩვენოს ისე სახელწოდებით ‘ჰალუცინაციები’—ისინი იძლევიან არასწორ ან უგონივრზე პასუხებს. სექტორებში, სადაც გადაწყვეტილებები მნიშვნელოვანი არიან, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ეს შეიძლება განადგურებადი შედეგებს გამოიწვიოს. Themis AI-მა შექმნა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის რაოდენოვნობის განსაზღვრას: იგი იზომება და რაოდენოვნდება AI-ის გამოტანის გაურკვევლობა დეტალურად და სანდოდ.

 როგორ მუშაობს ეს?
მოდელებს გაურკვევლობის ცნობიერების მიწოდებით, ისინი შეძლებენ თავიანთი შედეგები რისკის ან სანდოობის ლეიბლით აღჭურვა. მაგალითად, თვითმმართველი მანქანა შეიძლება მიუთითოს, რომ სიტუაციაზე არასანდოა და შესაბამისად, ადამიანური შეხება გააქტიუროს. ეს არა მხოლოდ უსაფრთხოების ზრდას, არამედ მომხმარებლების AI სისტემებზე ნდობის ზრდასაც უზრუნველყოფს.

ტექნიკური განხორციელების მაგალითები

  • PyTorch-ის ინტეგრაციისას მოდელის გადაფარვა ხდება capsa_torch.wrapper() სადაც გამოტანა შედგება როგორც პროგნოზის, ასევე რისკისგან:

Python example met capsa

TensorFlow მოდელებისთვის Capsa მუშაობს დეკორატორით:

TensorFlow

ტექნოლოგიის გავლენა კომპანიებზე და მომხმარებლებზე
NetCare-სა და მისი მომხმარებლებისთვის, ეს ტექნოლოგია ნიშნავს დიდ ნაბიჯს წინ. ჩვენ შეგვიძლია AI-განაცხადები მიწოდოთ, რომლებიც არა მხოლოდ ჭკვიანია, არამედ უსაფრთხოა და უკეთ პროგნოზირებადია, ჰალუცინაციების ნაკლები შესაძლებლობით. ეს ეხმარება ორგანიზაციებს უკეთესი საფუძვლიანი გადაწყვეტილებების მიღებაში და რისკების შემცირებაში AI-ის კომპანიის კრიტიკული აპლიკაციებში ინტეგრაციისას.

დასკვნა
MIT გუნდი აჩვენებს, რომ AI-ის მომავალში არა მხოლოდ უფრო ჭკვიანობა, არამედ უფრო უსაფრთხო და სამართლიანი ფუნქციონირება მნიშვნელოვანია. NetCare-ში გვჯერა, რომ AI მხოლოდ მაშინ ხდება ნამდვილი ღირებულება, როდესაც იგი თავისი შეზღუდვების შესახებ გამჭვირვალეა. განვითარებული გაურკვევლობის რაოდენოვნობის ინსტრუმენტებით, როგორიცაა Capsa, შეგიძლიათ ეს ხედვა პრაქტიკულადაც განხორციელოთ.

ჟერარდ

გერარდია აქტიურად მუშაობს AI კონსულტანტის და მენეჯერის სახით. დიდი გამოცდილებით დიდი ორგანიზაციებში, შეუძლია ძალიან სწრაფად პრობლემის გადაჭრა და გადაწყვეტისაკენ მუშაობა. ეკონომიკური ფონის კომბინაციით, იგი უზრუნველყოფს ბიზნესის პასუხისმგებლურ არჩევანს.