MIT team at work

एमआईटी टीम एआई मॉडल को वह सिखाती है जो वे पहले से नहीं जानते थे।

कृत्रिम बुद्धिमत्ता (AI) का अनुप्रयोग तेजी से बढ़ रहा है और हमारे दैनिक जीवन और स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-दांव वाले उद्योगों के साथ तेजी से जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं जिनके बड़े परिणाम हो सकते हैं।

MIT का Themis AI, CSAIL लैब के प्रोफेसर डेनिएला रस द्वारा सह-स्थापित और नेतृत्व किया गया, एक अभूतपूर्व समाधान प्रदान करता है। उनकी तकनीक AI मॉडल को ‘यह जानने में सक्षम बनाती है कि वे क्या नहीं जानते’। इसका मतलब है कि AI सिस्टम स्वयं इंगित कर सकते हैं कि वे अपनी भविष्यवाणियों के बारे में कब अनिश्चित हैं, जिससे नुकसान होने से पहले त्रुटियों को रोका जा सकता है।

यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहां तक कि उन्नत भी, कभी-कभी तथाकथित ‘मतिभ्रम’ प्रदर्शित कर सकते हैं – वे गलत या निराधार उत्तर देते हैं। उन क्षेत्रों में जहां निर्णय भारी होते हैं, जैसे कि चिकित्सा निदान या स्वायत्त ड्राइविंग, इसके विनाशकारी परिणाम हो सकते हैं। Themis AI ने Capsa विकसित किया, एक ऐसा मंच जो अनिश्चितता मात्रा का ठहराव लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और विश्वसनीय तरीके से मापता और निर्धारित करता है।

 यह कैसे काम करता है?
मॉडल को अनिश्चितता जागरूकता सिखाकर, वे जोखिम या विश्वसनीयता लेबल के साथ आउटपुट प्रदान कर सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार इंगित कर सकती है कि वह किसी स्थिति के बारे में निश्चित नहीं है और इसलिए मानवीय हस्तक्षेप को सक्रिय करती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण करते समय, मॉडल को capsa_torch.wrapper() के माध्यम से लपेटा जाता है, जहां आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

Python example met capsa

TensorFlow मॉडल के लिए, Capsa एक डेकोरेटर के साथ काम करता है:

tensorflow

कंपनियों और उपयोगकर्ताओं के लिए प्रभाव
NetCare और उसके ग्राहकों के लिए, यह तकनीक एक बड़ी छलांग है। हम AI एप्लिकेशन प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और अधिक अनुमानित भी हैं, जिसमें मतिभ्रम की संभावना कम है। यह संगठनों को बेहतर सूचित निर्णय लेने और व्यवसाय-महत्वपूर्ण अनुप्रयोगों में AI को लागू करते समय जोखिमों को कम करने में मदद करता है।

निष्कर्ष
MIT टीम दिखाती है कि AI का भविष्य केवल स्मार्ट होने के बारे में नहीं है, बल्कि सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में भी है। NetCare में, हम मानते हैं कि AI तभी वास्तव में मूल्यवान हो जाता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता मात्रा उपकरण के साथ, आप उस दृष्टि को व्यवहार में भी ला सकते हैं।

Gerard

Gerard

जेरार्ड एक एआई सलाहकार और प्रबंधक के रूप में सक्रिय हैं। बड़े संगठनों में व्यापक अनुभव के साथ, वह एक समस्या को बहुत तेज़ी से सुलझा सकते हैं और एक समाधान की दिशा में काम कर सकते हैं। एक आर्थिक पृष्ठभूमि के साथ मिलकर, वह व्यावसायिक रूप से ध्वनि विकल्प सुनिश्चित करते हैं।

AIR (Artificial Intelligence Robot)