MIT ატარებს კვლევას ხელოვნური ინტელექტის გასაუმჯობესებლად

MIT-ის გუნდი AI მოდელებს იმას ასწავლის, რაც აქამდე არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად იჭრება ჩვენს ყოველდღიურ ცხოვრებასა და ისეთ მნიშვნელოვან სექტორებში, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. თუმცა, დიდ ძალასთან ერთად დიდი პასუხისმგებლობაც მოდის: AI სისტემები ზოგჯერ უშვებენ შეცდომებს ან იძლევიან გაურკვეველ პასუხებს, რასაც შესაძლოა სერიოზული შედეგები მოჰყვეს.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, მათ შორის მოწინავეებიც, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი იძლევიან მცდარ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, მაგალითად, სამედიცინო დიაგნოსტიკაში ან ავტონომიურ მართვაში, ამან შესაძლოა კატასტროფული შედეგები გამოიწვიოს. Themis AI-მ შეიმუშავა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას (uncertainty quantification): ის დეტალური და სანდო გზით ზომავს და განსაზღვრავს AI-ს მიერ მიღებული შედეგების გაურკვევლობის ხარისხს.

 როგორ მუშაობს ეს?
მოდელებისთვის გაურკვევლობის გაცნობიერების (uncertainty awareness) სწავლებით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ნიშნული. მაგალითად: თვითმართვად ავტომობილს შეუძლია მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ მოითხოვოს ადამიანის ჩარევა. ეს არა მხოლოდ ზრდის უსაფრთხოებას, არამედ მომხმარებლების ნდობასაც AI სისტემების მიმართ.

ტექნიკური იმპლემენტაციის მაგალითები
  • PyTorch-თან ინტეგრაციისას მოდელის შეფუთვა (wrapping) ხდება შემდეგი გზით: capsa_torch.wrapper() სადაც შედეგი მოიცავს როგორც პროგნოზს, ისე რისკის მაჩვენებელს:
Python example met capsa
TensorFlow მოდელებისთვის Capsa მუშაობს დეკორატორის მეშვეობით:
tensorflow
გავლენა ბიზნესსა და მომხმარებლებზე
NetCare-ისა და მისი კლიენტებისთვის ეს ტექნოლოგია უზარმაზარი წინგადადგმული ნაბიჯია. ჩვენ შეგვიძლია მივაწოდოთ AI გადაწყვეტილებები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უკეთ პროგნოზირებადი, ჰალუცინაციების ნაკლები ალბათობით. ეს ეხმარება ორგანიზაციებს უფრო დასაბუთებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში ბიზნესისთვის კრიტიკულ აპლიკაციებში AI-ს დანერგვისას.

დასკვნა
MIT-ის გუნდი გვიჩვენებს, რომ AI-ს მომავალი მხოლოდ უფრო ჭკვიანურ ფუნქციონირებაზე კი არ არის დამოკიდებული, არამედ, უპირველეს ყოვლისა, უფრო უსაფრთხო და სამართლიან მუშაობაზე. NetCare-ში გვჯერა, რომ AI მხოლოდ მაშინ ხდება ნამდვილად ღირებული, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების მიმართ. გაურკვევლობის კვანტიფიკაციის მოწინავე ხელსაწყოებით, როგორიცაა Capsa, თქვენც შეგიძლიათ ეს ხედვა პრაქტიკაში განახორციელოთ.

Gerard

გერარდია აქტიურია AI კონსულტანტის და მენეჯერის როლში. დიდი გამოცდილებით დიდი ორგანიზაციებში, იგი შეიძლება ძალიან სწრაფად პრობლემის განახლება და გადაწყვეტისაკენ მუშაობა. ეკონომიკური ფონის კომბინაციით, იგი უზრუნველყოფს ბიზნესის პასუხისმგებლურ არჩევანს.