एमआईटी एआई को और अधिक स्मार्ट बनाने के लिए शोध कर रहा है

एमआईटी टीम एआई मॉडल को वह सिखाती है जो वे पहले से नहीं जानते थे।

कृत्रिम बुद्धिमत्ता (एआई) का अनुप्रयोग तेजी से बढ़ रहा है और हमारे दैनिक जीवन और स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-दांव वाले उद्योगों के साथ तेजी से जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: एआई सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं जिनका बड़ा प्रभाव पड़ सकता है।

एमआईटी की थेमिस एआई, जिसकी सह-स्थापना और नेतृत्व प्रोफेसर डेनिएला रूस (सीएसएआईएल लैब) कर रही हैं, एक अभूतपूर्व समाधान प्रदान करती है। उनकी तकनीक एआई मॉडल को 'यह जानने में सक्षम बनाती है कि वे क्या नहीं जानते हैं'। इसका मतलब है कि एआई सिस्टम स्वयं इंगित कर सकते हैं कि वे अपनी भविष्यवाणियों के बारे में कब अनिश्चित हैं, जिससे नुकसान होने से पहले गलतियों को रोका जा सकता है।

यह इतना महत्वपूर्ण क्यों है?
कई एआई मॉडल, यहां तक कि उन्नत मॉडल भी, कभी-कभी तथाकथित 'मतिभ्रम' प्रदर्शित कर सकते हैं—वे गलत या निराधार उत्तर देते हैं। उन क्षेत्रों में जहां निर्णय महत्वपूर्ण होते हैं, जैसे कि चिकित्सा निदान या स्वायत्त ड्राइविंग, इसके विनाशकारी परिणाम हो सकते हैं। थेमिस एआई ने कैप्सा विकसित किया है, एक ऐसा प्लेटफॉर्म जो अनिश्चितता मात्रा का ठहराव (uncertainty quantification) लागू करता है: यह एआई आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और परिमाणित करता है।

 यह कैसे काम करता है?
मॉडल को अनिश्चितता जागरूकता सिखाकर, वे आउटपुट को जोखिम या विश्वसनीयता लेबल प्रदान कर सकते हैं। उदाहरण के लिए: एक स्वचालित ड्राइविंग कार यह इंगित कर सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानवीय हस्तक्षेप को सक्रिय करती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि एआई सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।

तकनीकी कार्यान्वयन के उदाहरण

  • पाइटॉर्च के साथ एकीकरण करते समय, मॉडल को इसके माध्यम से रैप किया जाता है capsa_torch.wrapper() जहाँ आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

Python example met capsa

टेन्सरफ़्लो मॉडल के लिए, कैपसा एक डेकोरेटर के साथ काम करता है:

टेन्सरफ़्लो

कंपनियों और उपयोगकर्ताओं पर प्रभाव
नेटकेयर और उसके ग्राहकों के लिए, यह तकनीक एक बड़ी छलांग है। हम ऐसे एआई एप्लिकेशन प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और अधिक अनुमानित भी हैं, जिनमें भ्रम (hallucinations) की संभावना कम होती है। यह संगठनों को बेहतर सूचित निर्णय लेने और व्यावसायिक रूप से महत्वपूर्ण अनुप्रयोगों में एआई को लागू करते समय जोखिमों को कम करने में मदद करता है।

निष्कर्ष
एमआईटी टीम यह दर्शाता है कि एआई का भविष्य केवल अधिक स्मार्ट बनने के बारे में नहीं है, बल्कि सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में भी है। नेटकेयर में, हम मानते हैं कि एआई तभी वास्तव में मूल्यवान बनता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। कैपसा जैसे उन्नत अनिश्चितता मात्राकरण उपकरणों के साथ, आप उस दृष्टिकोण को व्यवहार में ला सकते हैं।

जेरार्ड

जेरार्ड एक एआई सलाहकार और प्रबंधक के रूप में सक्रिय हैं। बड़े संगठनों के साथ व्यापक अनुभव के साथ, वह किसी भी समस्या को बहुत तेज़ी से समझ सकते हैं और समाधान की दिशा में काम कर सकते हैं। उनकी आर्थिक पृष्ठभूमि के साथ मिलकर, वह व्यावसायिक रूप से जिम्मेदार विकल्प सुनिश्चित करते हैं।

एआईआर (कृत्रिम बुद्धिमत्ता रोबोट)