MIT-მა აკეთებს კვლევას AI-ის უფრო ჭკვიანად გახდომისათვის

MIT-ის გუნდი ასწავლება AI მოდელებს, რაც ისინი ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და უფრო მეტად ინტეგრირდება ჩვენს ყოველდღიურ ცხოვრებაში და მაღალი რისკის ინდუსტრиях, როგორიცაა ჯანმრთელობის დაცვის, ტელეკომუნიკაციები და ენერგია. თუმცა დიდი ძალასთან მოდის დიდი პასუხისმგებლობა: AI სისტემები ზოგჯერ შეცდომებს აკეთებენ ან უგონიან პასუხებს, რომლებიც შეიძლება დიდი შედეგები ჰქონდეთ.

რატომ არის ეს ასე მნიშვნელოვანი?
მრავალი AI მოდელი, თუნდაც განვითარებული, შეიძლება ზოგჯერ აჩვენოს ისე სახელწოდებული ‘ჰალუცინაციები’—ისინი იძლევა არასწორ ან უგონიან პასუხებს. სექტორებში, სადაც გადაწყვეტილებები მნიშვნელოვანი არიან, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ეს შეიძლება განადგურებადი შედეგები ჰქონდეს. Themis AI‑მა შექმნა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის რაოდენოვნობის (uncertainty quantification) მეთოდს: იგი იზომება და რაოდენოვნდება AI‑ის გამომუშავების გაურკვევლობა დეტალურად და სანდოდ.

 როგორ მუშაობს ეს?
მოდელებს გაურკვევლობის ცნობიერების მიწერით, ისინი შეძლებენ თავიანთი შედეგები რისკის ან სანდოობის ლეიბლით აღჭურვას. მაგალითად, თვითმმართველი მანქანა შეიძლება აჩვენოს, რომ სიტუაციაზე დარწმუნებული არაა და ამიტომ ადამიანური შეწყვეტა გააქტიუროს. ეს არა მხოლოდ უსაფრთხოების ზრდას, არამედ AI სისტემებზე მომხმარებლების ნდობასაც ზრდის.

ტექნიკური განხორციელების მაგალითები
  • PyTorch‑თან ინტეგრაციისას მოდელის გადაფარვა ხდება capsa_torch.wrapper() სადაც შედეგი შედგება როგორც პროგნოზის, ასევე რისკისგან:
Python example met capsa
TensorFlow მოდელებისთვის Capsa მუშაობს დეკორატორით:
ტენსორფლოუ
ტექნოლოგიის გავლენა კომპანიებზე და მომხმარებლებზე
NetCare-სა და მისი მომხმარებლებისთვის ეს ტექნოლოგია ნიშნავს დიდ წინსვლას. ჩვენ შეგვიძლია AI‑პროგრამები მიწოდოთ, რომლებიც არა მხოლოდ ინტელექტუალური არიან, არამედ უსაფრთხო და უკეთ პროგნოზირებადი, ჰალუცინაციების ნაკლები შესაძლებლობით. ეს ორგანიზაციებს ეხმარება უკეთ დაფუძნებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში AI‑ის კომპანიის კრიტიკულ აპლიკაციებში ინტეგრაციისას.

დასკვნა
MIT გუნდი აჩვენებს, რომ AI-ის მომავალში არა მხოლოდ უფრო ჭკვიანობაა მიზანი, არამედ უფრო უსაფრთხოდ და სამართლიანად მუშაობა. NetCare-ში გვ gelooft, რომ AI მხოლოდ მაშინ ხდება ნამდვილი ღირებულება, როდესაც იგი თავისი შეზღუდვების შესახებ გამჭვირვალეა. განვითარებული გაურკვევლობის რაოდენოვნობის ინსტრუმენტებით, როგორიცაა Capsa, შეგიძლიათ ეს ხედვა პრაქტიკულადაც განხორციელოთ.

Gerard

გერარდია აქტიურად მუშაობს AI კონსულტანტის და მენეჯერის პოზიციაზე. დიდი გამოცდილებით დიდი ორგანიზაციებში, იგი ძალიან სწრაფად შეუძლია პრობლემის განახლება და გადაწყვეტისკენ მუშაობა. ეკონომიკური განათლების კომბინაციით, იგი უზრუნველყოფს ბიზნესზე პასუხისმგებლურ არჩევანს.