MIT team at work

एमआईटी टीम एआई मॉडलों को वह सिखाती है जो वे अभी तक नहीं जानते थे।

कृत्रिम बुद्धिमत्ता (AI) का अनुप्रयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन और स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-दांव वाले उद्योगों के साथ तेजी से जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी ऐसी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं जिनके बड़े परिणाम हो सकते हैं।

MIT का थेमिस AI, CSAIL लैब के प्रोफेसर डेनिएला रस द्वारा सह-स्थापित और नेतृत्व किया गया, एक अभूतपूर्व समाधान प्रदान करता है। उनकी तकनीक AI मॉडलों को ‘यह जानने में सक्षम बनाती है कि वे क्या नहीं जानते’। इसका मतलब है कि AI सिस्टम स्वयं यह इंगित कर सकते हैं कि वे अपनी भविष्यवाणियों के बारे में कब अनिश्चित हैं, जिससे गलतियों को नुकसान पहुँचाने से पहले रोका जा सकता है।

यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहां तक कि उन्नत भी, कभी-कभी तथाकथित ‘भ्रम’ प्रदर्शित कर सकते हैं—वे गलत या निराधार उत्तर देते हैं। उन क्षेत्रों में जहाँ निर्णय बहुत मायने रखते हैं, जैसे कि चिकित्सा निदान या स्वायत्त ड्राइविंग, इसके विनाशकारी परिणाम हो सकते हैं। थेमिस AI ने कैपसा विकसित किया, एक ऐसा मंच जो अनिश्चितता मात्रा का ठहराव लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और निर्धारित करता है।

 यह कैसे काम करता है?
मॉडल को अनिश्चितता जागरूकता प्रदान करके, वे आउटपुट को जोखिम या विश्वसनीयता लेबल के साथ प्रदान कर सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार यह इंगित कर सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानवीय हस्तक्षेप को सक्रिय करती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण करते समय, मॉडल को capsa_torch.wrapper() के माध्यम से लपेटा जाता है, जिसमें आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

Python example met capsa

TensorFlow मॉडल के लिए, कैपसा एक डेकोरेटर के साथ काम करता है:

tensorflow

कंपनियों और उपयोगकर्ताओं के लिए प्रभाव
नेटकेयर और उसके ग्राहकों के लिए, यह तकनीक एक बड़ी छलांग है। हम AI एप्लिकेशन प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और कम भ्रम के साथ अधिक अनुमानित भी हैं। यह संगठनों को बेहतर सूचित निर्णय लेने और व्यावसायिक-महत्वपूर्ण अनुप्रयोगों में AI को लागू करते समय जोखिमों को कम करने में मदद करता है।

निष्कर्ष
MIT टीम दिखाती है कि AI का भविष्य केवल स्मार्ट बनने के बारे में नहीं है, बल्कि सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में भी है। नेटकेयर में, हम मानते हैं कि AI तभी वास्तव में मूल्यवान होता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। कैपसा जैसे उन्नत अनिश्चितता मात्रा उपकरण के साथ, आप उस दृष्टि को व्यवहार में भी ला सकते हैं।

Gerard

Gerard

जेरार्ड एक एआई सलाहकार और प्रबंधक के रूप में सक्रिय हैं। बड़े संगठनों के साथ व्यापक अनुभव के साथ, वह बहुत तेज़ी से किसी समस्या को सुलझा सकते हैं और समाधान की दिशा में काम कर सकते हैं। आर्थिक पृष्ठभूमि के साथ मिलकर, वह व्यावसायिक रूप से जिम्मेदार विकल्प सुनिश्चित करते हैं।

AIR (Artificial Intelligence Robot)