कृत्रिम बुद्धिमत्ता (AI) का अनुप्रयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन और स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-दांव वाले उद्योगों के साथ तेजी से जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं जिनके बड़े परिणाम हो सकते हैं।
MIT का Themis AI, CSAIL लैब के प्रोफेसर डेनिएला रस द्वारा सह-स्थापित और नेतृत्व में, एक अभूतपूर्व समाधान प्रदान करता है। उनकी तकनीक AI मॉडल को ‘यह जानने में सक्षम बनाती है कि वे क्या नहीं जानते’। इसका मतलब है कि AI सिस्टम स्वयं इंगित कर सकते हैं कि वे अपनी भविष्यवाणियों के बारे में कब अनिश्चित हैं, जिससे नुकसान होने से पहले गलतियों को रोका जा सकता है।
यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहां तक कि उन्नत वाले भी, कभी-कभी तथाकथित ‘मतिभ्रम’ प्रदर्शित कर सकते हैं – वे गलत या निराधार उत्तर देते हैं। उन क्षेत्रों में जहां निर्णय भारी होते हैं, जैसे कि चिकित्सा निदान या स्वायत्त ड्राइविंग, इसके विनाशकारी परिणाम हो सकते हैं। Themis AI ने Capsa विकसित किया, एक ऐसा मंच जो अनिश्चितता मात्रा का ठहराव लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और मात्रा निर्धारित करता है।
यह कैसे काम करता है?
मॉडल को अनिश्चितता जागरूकता सिखाकर, वे आउटपुट को जोखिम या विश्वसनीयता लेबल के साथ प्रदान कर सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार इंगित कर सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानव हस्तक्षेप को सक्रिय करती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।
capsa_torch.wrapper()
के माध्यम से लपेटा जाता है, जहां आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:
निष्कर्ष
MIT टीम दिखाती है कि AI का भविष्य न केवल होशियार होने के बारे में है, बल्कि सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में भी है। NetCare में, हम मानते हैं कि AI तभी वास्तव में मूल्यवान होता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता मात्रा निर्धारण उपकरणों के साथ, आप उस दृष्टिकोण को व्यवहार में भी ला सकते हैं।