ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად ერწყმის ჩვენს ყოველდღიურ ცხოვრებასა და მაღალი რისკის ინდუსტრიებს, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდი ძალა დიდ პასუხისმგებლობასაც გულისხმობს: AI სისტემები ზოგჯერ შეცდომებს უშვებენ ან გაურკვეველ პასუხებს იძლევიან, რამაც სერიოზული შედეგები შეიძლება გამოიწვიოს.
MIT-ის Themis AI, რომელიც დააარსა და ხელმძღვანელობს პროფესორი დანიელა რუსი CSAIL ლაბორატორიიდან, რევოლუციურ გადაწყვეტას გვთავაზობს. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს, იცოდნენ, რა არ იციან. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდესაც მათი პროგნოზები გაურკვეველია, რაც ხელს უშლის შეცდომებს მანამდე, სანამ ზიანს მიაყენებენ.
Warum ist das so wichtig?
ბევრი AI მოდელი, თუნდაც მოწინავე, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი გასცემენ არასწორ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამან შეიძლება კატასტროფული შედეგები გამოიწვიოს. Themis AI-მა შექმნა Capsa — პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას: ის დეტალურად და სანდოდ ზომავს და აფასებს AI-ის შედეგების გაურკვევლობას.
როგორ მუშაობს?
მოდელებს გაურკვევლობის შესახებ ცნობიერების მიტანით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ეტიკეტი. მაგალითად, ავტონომიურმა მანქანამ შეიძლება მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიუროს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ მომხმარებელთა ნდობასაც ხელოვნური ინტელექტის სისტემების მიმართ.
capsa_torch.wrapper() როდესაც გამომავალი შედეგი მოიცავს როგორც პროგნოზს, ასევე რისკს:

დასკვნა
MIT გუნდი აჩვენებს, რომ ხელოვნური ინტელექტის მომავალი არა მხოლოდ უფრო ჭკვიანი გახდომაა, არამედ უპირველეს ყოვლისა, უფრო უსაფრთხო და სამართლიანი ფუნქციონირება. NetCare-ში ჩვენ გვჯერა, რომ ხელოვნური ინტელექტი ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების შესახებ. ისეთი მოწინავე გაურკვევლობის კვანტიფიკაციის ხელსაწყოებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ამ ხედვის პრაქტიკაში განხორციელება.