MIT doet onderzoek om AI slimmer te maken

MIT टीम AI मॉडलों को वह सिखाती है जो उन्हें पहले नहीं पता था।

कृत्रिम बुद्धिमत्ता (AI) का उपयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन तथा स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसी हाई-स्टेक्स उद्योगों में गहराई से सम्मिलित हो रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI प्रणालियाँ कभी-कभी गलतियाँ करती हैं या अनिश्चित उत्तर देती हैं जिनके गंभीर परिणाम हो सकते हैं।

MIT की Themis AI, जिसे CSAIL लैब की प्रोफेसर Daniela Rus ने सह-स्थापित और नेतृत्व किया है, एक अग्रणी समाधान पेश करती है। उनकी तकनीक AI मॉडलों को यह सक्षम बनाती है कि वे 'जानें कि वे क्या नहीं जानते'। इसका मतलब है कि AI प्रणालियाँ स्वयं यह संकेत दे सकती हैं जब वे अपनी भविष्यवाणियों के बारे में अनिश्चित हों, जिससे हानिकारक निर्णयों से पहले गलतियों को रोका जा सकता है।

यह क्यों महत्वपूर्ण है?
कई AI मॉडल, यहाँ तक कि उन्नत भी, कभी-कभी तथाकथित 'हलुसिनेशन' दिखा सकते हैं—वे गलत या बिना आधार के उत्तर देते हैं। ऐसे क्षेत्रों में जहाँ निर्णयों का असर बड़ा होता है, जैसे चिकित्सा निदान या स्वायत्त ड्राइविंग, इसका विनाशकारी परिणाम हो सकता है। Themis AI ने Capsa विकसित किया, एक प्लेटफॉर्म जो uncertainty quantification लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और भरोसेमंद तरीके से मापता और मात्रात्मक रूप में दर्शाता है।

 यह कैसे काम करता है?
मॉडल्स को uncertainty awareness सिखाकर, वे अपनी आउटपुट के साथ जोखिम या विश्वसनीयता का लेबल जोड़ सकते हैं। उदाहरण के लिए: एक स्वयं-चालित कार यह संकेत दे सकती है कि किसी स्थिति के बारे में वह अनिश्चित है और इसलिए मानव हस्तक्षेप सक्रिय कर सकती है। इससे न केवल सुरक्षा बढ़ती है, बल्कि उपयोगकर्ताओं का AI प्रणालियों पर विश्वास भी मजबूत होता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण में, मॉडल को रैप करने की प्रक्रिया इस प्रकार होती है capsa_torch.wrapper() जिसमें आउटपुट में अनुमान के साथ-साथ जोखिम भी शामिल होता है:

Python example met capsa

TensorFlow- मॉडलों के लिए Capsa एक डेकॉरेटर के साथ काम करता है:

tensorflow

कंपनियों और उपयोगकर्ताओं के लिए प्रभाव
NetCare और उसके ग्राहकों के लिए यह तकनीक एक बड़ा कदम आगे है। हम ऐसे AI अनुप्रयोग प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और अधिक पूर्वानुमाननीय हैं तथा हलुसिनेशन की संभावना कम रखते हैं। यह संगठनों को बेहतर-आधारित निर्णय लेने और व्यापार-सम्वेदनशील एप्लिकेशनों में AI लागू करते समय जोखिम घटाने में मदद करता है।

निष्कर्ष
MIT टीम यह दिखाता है कि AI का भविष्य केवल अधिक बुद्धिमान बनने तक सीमित नहीं है, बल्कि सुरक्षित और न्यायसंगत संचालन पर भी केंद्रित होना चाहिए। NetCare में हमारा मानना है कि AI तभी वास्तविक रूप से मूल्यवान बनता है जब वह अपनी सीमाओं के प्रति पारदर्शी हो। Capsa जैसे उन्नत uncertainty quantification टूल्स के साथ आप इस दृष्टि को व्यावहारिक रूप में लागू कर सकते हैं।

जेरार्ड

जेरार्ड एक सक्रिय एआई कंसल्टेंट और मैनेजर हैं। बड़ी संस्थाओं में व्यापक अनुभव के साथ वे किसी समस्या को बहुत तेज़ी से सुलझा कर समाधान की ओर ले जा सकते हैं। आर्थिक पृष्ठभूमि के संयोजन से वे व्यावसायिक रूप से जिम्मेदार निर्णय लेते हैं।