ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და უფრო მეტად ინტეგრირდება ჩვენს ყოველდღიურ ცხოვრებაში და მაღალი რისკის ინდუსტრиях, როგორიცაა ჯანმრთელობის დაცვის, ტელეკომუნიკაციები და ენერგია. თუმცა დიდი ძალასთან მოდის დიდი პასუხისმგებლობა: AI სისტემები ზოგჯერ შეცდომებს აკეთებენ ან უგონიან პასუხებს, რომლებიც შეიძლება დიდი შედეგები ჰქონდეთ.
რატომ არის ეს ასე მნიშვნელოვანი?
მრავალი AI მოდელი, თუნდაც განვითარებული, შეიძლება ზოგჯერ აჩვენოს ისე სახელწოდებული ‘ჰალუცინაციები’—ისინი იძლევა არასწორ ან უგონიან პასუხებს. სექტორებში, სადაც გადაწყვეტილებები მნიშვნელოვანი არიან, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ეს შეიძლება განადგურებადი შედეგები ჰქონდეს. Themis AI‑მა შექმნა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის რაოდენოვნობის (uncertainty quantification) მეთოდს: იგი იზომება და რაოდენოვნდება AI‑ის გამომუშავების გაურკვევლობა დეტალურად და სანდოდ.
როგორ მუშაობს ეს?
მოდელებს გაურკვევლობის ცნობიერების მიწერით, ისინი შეძლებენ თავიანთი შედეგები რისკის ან სანდოობის ლეიბლით აღჭურვას. მაგალითად, თვითმმართველი მანქანა შეიძლება აჩვენოს, რომ სიტუაციაზე დარწმუნებული არაა და ამიტომ ადამიანური შეწყვეტა გააქტიუროს. ეს არა მხოლოდ უსაფრთხოების ზრდას, არამედ AI სისტემებზე მომხმარებლების ნდობასაც ზრდის.
capsa_torch.wrapper() სადაც შედეგი შედგება როგორც პროგნოზის, ასევე რისკისგან:
დასკვნა
MIT გუნდი აჩვენებს, რომ AI-ის მომავალში არა მხოლოდ უფრო ჭკვიანობაა მიზანი, არამედ უფრო უსაფრთხოდ და სამართლიანად მუშაობა. NetCare-ში გვ gelooft, რომ AI მხოლოდ მაშინ ხდება ნამდვილი ღირებულება, როდესაც იგი თავისი შეზღუდვების შესახებ გამჭვირვალეა. განვითარებული გაურკვევლობის რაოდენოვნობის ინსტრუმენტებით, როგორიცაა Capsa, შეგიძლიათ ეს ხედვა პრაქტიკულადაც განხორციელოთ.