MIT team at work

MIT-ის გუნდი ხელოვნური ინტელექტის მოდელებს ასწავლის იმას, რაც მათ ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად არის გადაჯაჭვული ჩვენს ყოველდღიურ ცხოვრებასთან და მაღალი რისკის მქონე ინდუსტრიებთან, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდ ძალასთან ერთად დიდი პასუხისმგებლობაც მოდის: AI სისტემები ზოგჯერ შეცდომებს უშვებენ ან გაურკვეველ პასუხებს იძლევიან, რამაც შეიძლება დიდი შედეგები გამოიწვიოს.

MIT-ის Themis AI, რომლის თანადამფუძნებელი და ხელმძღვანელი CSAIL ლაბორატორიის პროფესორი დანიელა რუსია, გვთავაზობს ინოვაციურ გადაწყვეტას. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს „იცოდნენ ის, რაც არ იციან“. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდის არ არიან დარწმუნებულნი თავიანთ პროგნოზებში, რაც ხელს უწყობს შეცდომების თავიდან აცილებას, სანამ ისინი ზიანს მიაყენებენ.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრ AI მოდელს, თუნდაც მოწინავეებს, ზოგჯერ შეუძლიათ გამოავლინონ ეგრეთ წოდებული „ჰალუცინაციები“ — ისინი იძლევიან მცდარ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებები დიდ წონას ატარებს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამას შეიძლება ჰქონდეს დამღუპველი შედეგები. Themis AI-მ შეიმუშავა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას: ის ზომავს და აკვანტიფიცირებს AI გამომავალი მონაცემების გაურკვევლობას დეტალური და საიმედო გზით.

 როგორ მუშაობს?
მოდელებისთვის გაურკვევლობის ცნობიერების დანერგვით, მათ შეუძლიათ გამომავალი მონაცემების მიწოდება რისკის ან სანდოობის ეტიკეტით. მაგალითად: თვითმავალ მანქანას შეუძლია მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიუროს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ მომხმარებლების ნდობას AI სისტემების მიმართ.

ტექნიკური განხორციელების მაგალითები

  • PyTorch-თან ინტეგრაციისას, მოდელის შეფუთვა ხდება capsa_torch.wrapper()-ის მეშვეობით, სადაც გამომავალი შედგება როგორც პროგნოზისგან, ასევე რისკისგან:

Python example met capsa

TensorFlow მოდელებისთვის Capsa მუშაობს დეკორატორთან:

tensorflow

გავლენა კომპანიებსა და მომხმარებლებზე
NetCare-სა და მის მომხმარებლებისთვის ეს ტექნოლოგია უზარმაზარ წინგადადგმულ ნაბიჯს ნიშნავს. ჩვენ შეგვიძლია მივაწოდოთ AI აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალური, არამედ უსაფრთხო და უფრო პროგნოზირებადია, ჰალუცინაციების ნაკლები შანსით. ის ეხმარება ორგანიზაციებს უკეთ ინფორმირებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში AI-ის კრიტიკულ ბიზნეს აპლიკაციებში დანერგვისას.

დასკვნა
MIT-ის გუნდი აჩვენებს, რომ AI-ის მომავალი არ არის მხოლოდ უფრო ჭკვიანი გახდომა, არამედ უპირველეს ყოვლისა, უფრო უსაფრთხო და სამართლიანი ფუნქციონირება. NetCare-ში გვჯერა, რომ AI ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების შესახებ. Capsa-ს მსგავსი მოწინავე გაურკვევლობის კვანტიფიკაციის ხელსაწყოებით, თქვენც შეგიძლიათ ამ ხედვის პრაქტიკაში განხორციელება.

Gerard

Gerard

ჯერარდი აქტიურია როგორც ხელოვნური ინტელექტის კონსულტანტი და მენეჯერი. მსხვილ ორგანიზაციებში მუშაობის დიდი გამოცდილებით, მას შეუძლია განსაკუთრებით სწრაფად ამოიცნოს პრობლემა და იმუშაოს მის გადაჭრაზე. ეკონომიკურ ფონთან ერთად, ის უზრუნველყოფს ბიზნესისთვის გამართლებულ არჩევანს.

AIR (Artificial Intelligence Robot)