MIT იკვლევს AI-ს გასაუმჯობესებლად

MIT გუნდი ასწავლის AI მოდელებს იმას, რაც მათ ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად ერწყმის ჩვენს ყოველდღიურ ცხოვრებასა და მაღალი რისკის ინდუსტრიებს, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდი ძალა დიდ პასუხისმგებლობასაც გულისხმობს: AI სისტემები ზოგჯერ შეცდომებს უშვებენ ან გაურკვეველ პასუხებს იძლევიან, რამაც სერიოზული შედეგები შეიძლება გამოიწვიოს.

MIT-ის Themis AI, რომელიც დააარსა და ხელმძღვანელობს პროფესორი დანიელა რუსი CSAIL ლაბორატორიიდან, რევოლუციურ გადაწყვეტას გვთავაზობს. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს, იცოდნენ, რა არ იციან. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდესაც მათი პროგნოზები გაურკვეველია, რაც ხელს უშლის შეცდომებს მანამდე, სანამ ზიანს მიაყენებენ.

Warum ist das so wichtig?
ბევრი AI მოდელი, თუნდაც მოწინავე, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი გასცემენ არასწორ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამან შეიძლება კატასტროფული შედეგები გამოიწვიოს. Themis AI-მა შექმნა Capsa — პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას: ის დეტალურად და სანდოდ ზომავს და აფასებს AI-ის შედეგების გაურკვევლობას.

 როგორ მუშაობს?
მოდელებს გაურკვევლობის შესახებ ცნობიერების მიტანით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ეტიკეტი. მაგალითად, ავტონომიურმა მანქანამ შეიძლება მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიუროს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ მომხმარებელთა ნდობასაც ხელოვნური ინტელექტის სისტემების მიმართ.

ტექნიკური განხორციელება

  • PyTorch-თან ინტეგრაციისას, მოდელის შეფუთვა ხდება capsa_torch.wrapper() როდესაც გამომავალი შედეგი მოიცავს როგორც პროგნოზს, ასევე რისკს:

Python example met capsa

TensorFlow მოდელებისთვის, Capsa იყენებს დეკორატორს:

TensorFlow

გავლენა კომპანიებსა და მომხმარებლებზე
NetCare-ისა და მისი კლიენტებისთვის ეს ტექნოლოგია უზარმაზარ წინგადადგმულ ნაბიჯს ნიშნავს. ჩვენ შეგვიძლია შევთავაზოთ ხელოვნური ინტელექტის ისეთი გადაწყვეტილებები, რომლებიც არა მხოლოდ ჭკვიანია, არამედ უსაფრთხო და უფრო მეტად პროგნოზირებადია, ჰალუცინაციების ნაკლები რისკით. ეს ორგანიზაციებს ეხმარება უკეთ დასაბუთებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში ხელოვნური ინტელექტის ბიზნესკრიტიკულ აპლიკაციებში დანერგვისას.

დასკვნა
MIT გუნდი აჩვენებს, რომ ხელოვნური ინტელექტის მომავალი არა მხოლოდ უფრო ჭკვიანი გახდომაა, არამედ უპირველეს ყოვლისა, უფრო უსაფრთხო და სამართლიანი ფუნქციონირება. NetCare-ში ჩვენ გვჯერა, რომ ხელოვნური ინტელექტი ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების შესახებ. ისეთი მოწინავე გაურკვევლობის კვანტიფიკაციის ხელსაწყოებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ამ ხედვის პრაქტიკაში განხორციელება.

გერარდი

გერარდი აქტიურად მუშაობს როგორც AI კონსულტანტი და მენეჯერი. მას აქვს დიდი გამოცდილება მსხვილ ორგანიზაციებში, რის გამოც შეუძლია სწრაფად გააანალიზოს პრობლემა და იპოვოს ეფექტური გადაწყვეტა. ეკონომიკური განათლების წყალობით, ის უზრუნველყოფს ბიზნესისთვის გამართულ და გონივრულ გადაწყვეტილებებს.

AIR (ხელოვნური ინტელექტის რობოტი)