MIT team at work

एमआईटी टीम एआई मॉडल को वह सिखाती है जो वे पहले से नहीं जानते थे।

कृत्रिम बुद्धिमत्ता (AI) का अनुप्रयोग तेजी से बढ़ रहा है और हमारे दैनिक जीवन और स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-दांव वाले उद्योगों के साथ तेजी से जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं जिनके बड़े परिणाम हो सकते हैं।

MIT का थेमिस AI, CSAIL लैब की प्रोफेसर डेनिएला रस द्वारा सह-स्थापित और नेतृत्व में, एक अभूतपूर्व समाधान प्रदान करता है। उनकी तकनीक AI मॉडल को ‘यह जानने में सक्षम बनाती है कि वे क्या नहीं जानते’। इसका मतलब है कि AI सिस्टम स्वयं यह इंगित कर सकते हैं कि वे अपनी भविष्यवाणियों के बारे में कब अनिश्चित हैं, जिससे नुकसान होने से पहले त्रुटियों को रोका जा सकता है।

यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहां तक कि उन्नत भी, कभी-कभी तथाकथित ‘मतिभ्रम’ प्रदर्शित कर सकते हैं – वे गलत या निराधार उत्तर देते हैं। उन क्षेत्रों में जहां निर्णय महत्वपूर्ण होते हैं, जैसे चिकित्सा निदान या स्वायत्त ड्राइविंग, इसके विनाशकारी परिणाम हो सकते हैं। थेमिस AI ने कैपसा विकसित किया, एक ऐसा मंच जो अनिश्चितता मात्रा का ठहराव लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और निर्धारित करता है।

 यह कैसे काम करता है?
मॉडल में अनिश्चितता जागरूकता पैदा करके, वे आउटपुट को जोखिम या विश्वसनीयता लेबल के साथ प्रदान कर सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार यह इंगित कर सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानवीय हस्तक्षेप को सक्रिय करती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण में, मॉडल को capsa_torch.wrapper() के माध्यम से लपेटना शामिल है, जहां आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

Python example met capsa

TensorFlow मॉडल के लिए, कैपसा एक डेकोरेटर के साथ काम करता है:

tensorflow

कंपनियों और उपयोगकर्ताओं के लिए प्रभाव
नेटकेयर और उसके ग्राहकों के लिए, यह तकनीक एक बड़ी छलांग है। हम AI एप्लिकेशन प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और कम मतिभ्रम के साथ अधिक अनुमानित भी हैं। यह संगठनों को बेहतर सूचित निर्णय लेने और व्यवसाय-महत्वपूर्ण अनुप्रयोगों में AI को लागू करते समय जोखिमों को कम करने में मदद करता है।

निष्कर्ष
MIT टीम दिखाती है कि AI का भविष्य केवल स्मार्ट होने के बारे में नहीं है, बल्कि सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में भी है। नेटकेयर में, हम मानते हैं कि AI तभी वास्तव में मूल्यवान होता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। कैपसा जैसे उन्नत अनिश्चितता मात्रा उपकरण के साथ, आप उस दृष्टि को व्यवहार में भी ला सकते हैं।

Gerard

Gerard

गेरार्ड एक एआई सलाहकार और प्रबंधक के रूप में सक्रिय हैं। बड़े संगठनों के साथ व्यापक अनुभव के साथ, वह बहुत जल्दी एक समस्या को सुलझा सकते हैं और एक समाधान की दिशा में काम कर सकते हैं। एक आर्थिक पृष्ठभूमि के साथ संयुक्त, वह व्यावसायिक रूप से जिम्मेदार विकल्प सुनिश्चित करते हैं।

AIR (Artificial Intelligence Robot)