कृत्रिम बुद्धिमत्ता (AI) का उपयोग तेज़ी से बढ़ रहा है और हमारे दैनिक जीवन और स्वास्थ्य देखभाल, टेलीकॉम और ऊर्जा जैसी उच्च-जोखिम वाली उद्योगों के साथ अधिक से अधिक जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी ज़िम्मेदारी भी आती है: AI सिस्टम कभी‑कभी त्रुटियाँ करते हैं या अनिश्चित उत्तर देते हैं जो बड़े परिणाम ला सकते हैं।
MIT की Themis AI, जो प्रोफेसर डैनिएला रुस द्वारा CSAIL‑लैब में सह‑स्थापित और संचालित है, एक क्रांतिकारी समाधान प्रदान करती है। उनकी तकनीक AI मॉडलों को ‘जो वे नहीं जानते हैं, उसे जानने’ में सक्षम बनाती है। इसका मतलब है कि AI सिस्टम स्वयं यह संकेत दे सकते हैं कि वे अपनी भविष्यवाणियों में कब अनिश्चित हैं, जिससे त्रुटियों को नुकसान पहुँचाने से पहले रोका जा सकता है।
यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहाँ तक कि उन्नत मॉडल भी, कभी‑कभी तथाकथित ‘हैलुसिनेशन’ दिखाते हैं—वे गलत या बिना आधार वाले उत्तर देते हैं। उन क्षेत्रों में जहाँ निर्णयों का वजन अधिक होता है, जैसे चिकित्सा निदान या स्वायत्त ड्राइविंग, यह विनाशकारी परिणाम दे सकता है। Themis AI ने Capsa विकसित किया, एक प्लेटफ़ॉर्म जो अनिश्चितता मापन लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और मात्रात्मक करता है।
यह कैसे काम करता है?
मॉडलों को अनिश्चितता जागरूकता सिखाकर, वे आउटपुट को जोखिम या विश्वसनीयता लेबल दे सकते हैं। उदाहरण के लिए: एक स्वचालित कार यह संकेत दे सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानव हस्तक्षेप को सक्रिय कर सकती है। इससे न केवल सुरक्षा बढ़ती है, बल्कि उपयोगकर्ताओं का AI सिस्टम पर भरोसा भी बढ़ता है।
capsa_torch.wrapper() जहाँ आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

निष्कर्ष
MIT टीम दिखाता है कि AI का भविष्य केवल अधिक स्मार्ट बनने के बारे में नहीं, बल्कि अधिक सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में है। NetCare में हम मानते हैं कि AI तभी वास्तव में मूल्यवान बनता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता मापन उपकरणों के साथ आप इस दृष्टिकोण को व्यावहारिक रूप से लागू कर सकते हैं।