एमआईटी (MIT) एआई को और अधिक स्मार्ट बनाने के लिए शोध कर रहा है

MIT टीम AI मॉडल को वह सिखा रही है जो वे पहले नहीं जानते थे।

आर्टिफिशियल इंटेलिजेंस (AI) का अनुप्रयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन तथा स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-जोखिम वाले उद्योगों के साथ तेजी से जुड़ता जा रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं, जिसके गंभीर परिणाम हो सकते हैं।

यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहाँ तक कि उन्नत मॉडल भी, कभी-कभी 'मतिभ्रम' (hallucinations) प्रदर्शित कर सकते हैं—वे गलत या निराधार उत्तर देते हैं। चिकित्सा निदान या स्वायत्त ड्राइविंग जैसे क्षेत्रों में, जहाँ निर्णय बहुत महत्वपूर्ण होते हैं, इसके विनाशकारी परिणाम हो सकते हैं। Themis AI ने Capsa विकसित किया है, एक ऐसा प्लेटफ़ॉर्म जो अनिश्चितता परिमाणीकरण (uncertainty quantification) लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और निर्धारित करता है।

 यह कैसे काम करता है?
मॉडल को अनिश्चितता के प्रति जागरूक बनाकर, वे अपने आउटपुट के साथ जोखिम या विश्वसनीयता का लेबल जोड़ सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार यह संकेत दे सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानवीय हस्तक्षेप को सक्रिय कर सकती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।

तकनीकी कार्यान्वयन के उदाहरण
  • PyTorch के साथ एकीकरण करते समय, मॉडल को रैप (wrap) करना इस प्रकार होता है: capsa_torch.wrapper() जहाँ आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:
Python example met capsa
TensorFlow मॉडल के लिए, Capsa एक डेकोरेटर के साथ काम करता है:
टेन्सरफ्लो
व्यवसायों और उपयोगकर्ताओं के लिए प्रभाव
NetCare और उसके ग्राहकों के लिए, यह तकनीक एक बड़ा कदम है। हम ऐसे AI अनुप्रयोग प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और अधिक पूर्वानुमानित भी हैं, जिनमें मतिभ्रम की संभावना कम है। यह संगठनों को बेहतर सूचित निर्णय लेने और व्यावसायिक रूप से महत्वपूर्ण अनुप्रयोगों में AI को लागू करते समय जोखिमों को कम करने में मदद करता है।

निष्कर्ष
MIT टीम यह दिखाता है कि AI का भविष्य केवल अधिक स्मार्ट होने के बारे में नहीं है, बल्कि मुख्य रूप से अधिक सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में है। NetCare में, हमारा मानना है कि AI तभी वास्तव में मूल्यवान होता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता परिमाणीकरण उपकरणों के साथ, आप उस दृष्टिकोण को व्यवहार में ला सकते हैं।

Gerard

Gerard AI सलाहकार और प्रबंधक के रूप में सक्रिय हैं। बड़े संगठनों में बहुत अनुभव के साथ वह समस्या को बहुत जल्दी समझ सकते हैं और समाधान की ओर काम कर सकते हैं। आर्थिक पृष्ठभूमि के साथ मिलाकर वह व्यावसायिक रूप से जिम्मेदार विकल्प सुनिश्चित करते हैं।