MIT team at work

एमआईटी टीम एआई मॉडल को सिखाती है जो वे पहले से नहीं जानते थे।

कृत्रिम बुद्धिमत्ता (AI) का अनुप्रयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन और स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-दांव वाले उद्योगों के साथ तेजी से जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं जिनके बड़े परिणाम हो सकते हैं।

MIT का Themis AI, CSAIL लैब के प्रोफेसर डेनिएला रस द्वारा सह-स्थापित और नेतृत्व में, एक अभूतपूर्व समाधान प्रदान करता है। उनकी तकनीक AI मॉडल को ‘यह जानने में सक्षम बनाती है कि वे क्या नहीं जानते’। इसका मतलब है कि AI सिस्टम स्वयं इंगित कर सकते हैं कि वे अपनी भविष्यवाणियों के बारे में कब अनिश्चित हैं, जिससे नुकसान होने से पहले गलतियों को रोका जा सकता है।

यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहां तक कि उन्नत वाले भी, कभी-कभी तथाकथित ‘मतिभ्रम’ प्रदर्शित कर सकते हैं – वे गलत या निराधार उत्तर देते हैं। उन क्षेत्रों में जहां निर्णय भारी होते हैं, जैसे कि चिकित्सा निदान या स्वायत्त ड्राइविंग, इसके विनाशकारी परिणाम हो सकते हैं। Themis AI ने Capsa विकसित किया, एक ऐसा मंच जो अनिश्चितता मात्रा का ठहराव लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और मात्रा निर्धारित करता है।

 यह कैसे काम करता है?
मॉडल को अनिश्चितता जागरूकता सिखाकर, वे आउटपुट को जोखिम या विश्वसनीयता लेबल के साथ प्रदान कर सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार इंगित कर सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानव हस्तक्षेप को सक्रिय करती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण करते समय, मॉडल को capsa_torch.wrapper() के माध्यम से लपेटा जाता है, जहां आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

Python example met capsa

TensorFlow मॉडल के लिए, Capsa एक डेकोरेटर के साथ काम करता है:

tensorflow

कंपनियों और उपयोगकर्ताओं के लिए प्रभाव
NetCare और उसके ग्राहकों के लिए, यह तकनीक एक बहुत बड़ा कदम है। हम AI एप्लिकेशन प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और कम मतिभ्रम के साथ अधिक पूर्वानुमानित भी हैं। यह संगठनों को बेहतर सूचित निर्णय लेने और व्यावसायिक-महत्वपूर्ण अनुप्रयोगों में AI को लागू करते समय जोखिमों को कम करने में मदद करता है।

निष्कर्ष
MIT टीम दिखाती है कि AI का भविष्य न केवल होशियार होने के बारे में है, बल्कि सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में भी है। NetCare में, हम मानते हैं कि AI तभी वास्तव में मूल्यवान होता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता मात्रा निर्धारण उपकरणों के साथ, आप उस दृष्टिकोण को व्यवहार में भी ला सकते हैं।

Gerard

Gerard

Gerard एक सक्रिय AI सलाहकार और प्रबंधक हैं। बड़े संगठनों में व्यापक अनुभव के साथ, वह बहुत तेजी से किसी समस्या को समझ सकते हैं और उसके समाधान की ओर काम कर सकते हैं। आर्थिक पृष्ठभूमि के साथ मिलकर, वह व्यावसायिक रूप से जिम्मेदार निर्णय लेते हैं।

AIR (Artificial Intelligence Robot)