MIT एआई को अधिक स्मार्ट बनाने के लिए शोध करता है

MIT टीम AI मॉडलों को वह सिखा रही है जो वे अभी तक नहीं जानते थे।

कृत्रिम बुद्धिमत्ता (AI) का उपयोग तेज़ी से बढ़ रहा है और हमारे दैनिक जीवन और स्वास्थ्य देखभाल, टेलीकॉम और ऊर्जा जैसी उच्च-जोखिम वाली उद्योगों के साथ अधिक से अधिक जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी ज़िम्मेदारी भी आती है: AI सिस्टम कभी‑कभी त्रुटियाँ करते हैं या अनिश्चित उत्तर देते हैं जो बड़े परिणाम ला सकते हैं।

MIT की Themis AI, जो प्रोफेसर डैनिएला रुस द्वारा CSAIL‑लैब में सह‑स्थापित और संचालित है, एक क्रांतिकारी समाधान प्रदान करती है। उनकी तकनीक AI मॉडलों को ‘जो वे नहीं जानते हैं, उसे जानने’ में सक्षम बनाती है। इसका मतलब है कि AI सिस्टम स्वयं यह संकेत दे सकते हैं कि वे अपनी भविष्यवाणियों में कब अनिश्चित हैं, जिससे त्रुटियों को नुकसान पहुँचाने से पहले रोका जा सकता है।

यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहाँ तक कि उन्नत मॉडल भी, कभी‑कभी तथाकथित ‘हैलुसिनेशन’ दिखाते हैं—वे गलत या बिना आधार वाले उत्तर देते हैं। उन क्षेत्रों में जहाँ निर्णयों का वजन अधिक होता है, जैसे चिकित्सा निदान या स्वायत्त ड्राइविंग, यह विनाशकारी परिणाम दे सकता है। Themis AI ने Capsa विकसित किया, एक प्लेटफ़ॉर्म जो अनिश्चितता मापन लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और मात्रात्मक करता है।

 यह कैसे काम करता है?
मॉडलों को अनिश्चितता जागरूकता सिखाकर, वे आउटपुट को जोखिम या विश्वसनीयता लेबल दे सकते हैं। उदाहरण के लिए: एक स्वचालित कार यह संकेत दे सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानव हस्तक्षेप को सक्रिय कर सकती है। इससे न केवल सुरक्षा बढ़ती है, बल्कि उपयोगकर्ताओं का AI सिस्टम पर भरोसा भी बढ़ता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण में मॉडल को रैप करना शामिल है capsa_torch.wrapper() जहाँ आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

Python example met capsa

TensorFlow मॉडलों के लिए Capsa एक डेकोरेटर के साथ काम करता है:

TensorFlow

कंपनियों और उपयोगकर्ताओं पर प्रभाव
NetCare और उसके ग्राहकों के लिए यह तकनीक एक बड़ी प्रगति का कदम है। हम ऐसे AI अनुप्रयोग प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और अधिक पूर्वानुमानित भी हैं, और जिनमें हैलुसिनेशन की संभावना कम है। यह संगठनों को बेहतर आधारभूत निर्णय लेने और कंपनी‑क्रिटिकल अनुप्रयोगों में AI को लागू करते समय जोखिम को कम करने में मदद करता है।

निष्कर्ष
MIT टीम दिखाता है कि AI का भविष्य केवल अधिक स्मार्ट बनने के बारे में नहीं, बल्कि अधिक सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में है। NetCare में हम मानते हैं कि AI तभी वास्तव में मूल्यवान बनता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता मापन उपकरणों के साथ आप इस दृष्टिकोण को व्यावहारिक रूप से लागू कर सकते हैं।

जेरार्ड

गेरार्ड एक AI सलाहकार और प्रबंधक के रूप में सक्रिय हैं। बड़े संगठनों में बहुत अनुभव के साथ, वह समस्या को बहुत तेज़ी से समझ सकते हैं और समाधान की ओर काम कर सकते हैं। आर्थिक पृष्ठभूमि के साथ मिलाकर, वह व्यावसायिक रूप से जिम्मेदार विकल्प सुनिश्चित करते हैं।