आर्टिफिशियल इंटेलिजेंस (AI) का अनुप्रयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन तथा स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-जोखिम वाले उद्योगों के साथ तेजी से जुड़ता जा रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं, जिसके गंभीर परिणाम हो सकते हैं।
यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहाँ तक कि उन्नत मॉडल भी, कभी-कभी 'मतिभ्रम' (hallucinations) प्रदर्शित कर सकते हैं—वे गलत या निराधार उत्तर देते हैं। चिकित्सा निदान या स्वायत्त ड्राइविंग जैसे क्षेत्रों में, जहाँ निर्णय बहुत महत्वपूर्ण होते हैं, इसके विनाशकारी परिणाम हो सकते हैं। Themis AI ने Capsa विकसित किया है, एक ऐसा प्लेटफ़ॉर्म जो अनिश्चितता परिमाणीकरण (uncertainty quantification) लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और निर्धारित करता है।
यह कैसे काम करता है?
मॉडल को अनिश्चितता के प्रति जागरूक बनाकर, वे अपने आउटपुट के साथ जोखिम या विश्वसनीयता का लेबल जोड़ सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार यह संकेत दे सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानवीय हस्तक्षेप को सक्रिय कर सकती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।
capsa_torch.wrapper() जहाँ आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:
निष्कर्ष
MIT टीम यह दिखाता है कि AI का भविष्य केवल अधिक स्मार्ट होने के बारे में नहीं है, बल्कि मुख्य रूप से अधिक सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में है। NetCare में, हमारा मानना है कि AI तभी वास्तव में मूल्यवान होता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता परिमाणीकरण उपकरणों के साथ, आप उस दृष्टिकोण को व्यवहार में ला सकते हैं।