MIT team at work

MIT-ის გუნდი ასწავლის AI მოდელებს იმას, რაც მათ ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად არის გადაჯაჭვული ჩვენს ყოველდღიურ ცხოვრებასთან და მაღალი რისკის მქონე ინდუსტრიებთან, როგორიცაა ჯანდაცვა, ტელეკომუნიკაცია და ენერგეტიკა. მაგრამ დიდ ძალას დიდი პასუხისმგებლობაც მოჰყვება: AI სისტემები ზოგჯერ უშვებენ შეცდომებს ან იძლევიან გაურკვეველ პასუხებს, რასაც შეიძლება დიდი შედეგები მოჰყვეს.

MIT-ის Themis AI, რომლის თანადამფუძნებელი და ხელმძღვანელი CSAIL ლაბორატორიის პროფესორი დანიელა რუსია, გთავაზობთ ინოვაციურ გადაწყვეტას. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს „იცოდნენ, რა არ იციან“. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდის არ არიან დარწმუნებული თავიანთ პროგნოზებში, რაც ხელს უწყობს შეცდომების თავიდან აცილებას, სანამ ისინი ზიანს მიაყენებენ.

რატომ არის ეს ასეთი მნიშვნელოვანი?
ბევრი AI მოდელი, თუნდაც მოწინავე, ზოგჯერ შეიძლება გამოავლინოს ე.წ. „ჰალუცინაციები“ — ისინი იძლევიან მცდარ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამას შეიძლება დამღუპველი შედეგები მოჰყვეს. Themis AI-მ შეიმუშავა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას: ის ზომავს და აკვანტიფიცირებს AI გამომავალი მონაცემების გაურკვევლობას დეტალური და სანდო გზით.

 როგორ მუშაობს?
მოდელებისთვის გაურკვევლობის ცნობიერების სწავლებით, მათ შეუძლიათ გამომავალი მონაცემების მიწოდება რისკის ან სანდოობის ეტიკეტით. მაგალითად: თვითმავალ მანქანას შეუძლია მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიუროს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ მომხმარებლების ნდობას AI სისტემების მიმართ.

ტექნიკური განხორციელების მაგალითები

  • PyTorch-თან ინტეგრაციისას, მოდელის შეფუთვა ხდება capsa_torch.wrapper()-ის მეშვეობით, სადაც გამომავალი შედეგი შედგება როგორც პროგნოზის, ასევე რისკისგან:

Python example met capsa

TensorFlow მოდელებისთვის Capsa მუშაობს დეკორატორით:

tensorflow

გავლენა კომპანიებსა და მომხმარებლებზე
NetCare-სა და მის კლიენტებისთვის ეს ტექნოლოგია უზარმაზარ წინგადადგმულ ნაბიჯს ნიშნავს. ჩვენ შეგვიძლია მივაწოდოთ AI აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უკეთ პროგნოზირებადი, ჰალუცინაციების ნაკლები შანსით. ეს ეხმარება ორგანიზაციებს უკეთ ინფორმირებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში AI-ის კრიტიკულ ბიზნეს აპლიკაციებში დანერგვისას.

დასკვნა
MIT გუნდი აჩვენებს, რომ AI-ის მომავალი არ არის მხოლოდ უფრო ჭკვიანი გახდომა, არამედ უპირველეს ყოვლისა უფრო უსაფრთხო და სამართლიანი ფუნქციონირება. NetCare-ში გვჯერა, რომ AI ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარ შეზღუდვებთან დაკავშირებით. მოწინავე გაურკვევლობის კვანტიფიკაციის ინსტრუმენტებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ეს ხედვა პრაქტიკაში განახორციელოთ.

Gerard

Gerard

გერარდი მუშაობს როგორც AI კონსულტანტი და მენეჯერი. დიდი გამოცდილებით დიდ ორგანიზაციებში, ის განსაკუთრებულად სწრაფად ახერხებს პრობლემის ამოხსნას და გადაწყვეტილებისკენ სწრაფვას. ეკონომიკურ ფონსთან ერთად, ის უზრუნველყოფს ბიზნესისთვის პასუხისმგებელ არჩევანს.

AIR (Artificial Intelligence Robot)