कृत्रिम बुद्धिमत्ता (AI) का उपयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन तथा स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसी हाई-स्टेक्स उद्योगों में गहराई से सम्मिलित हो रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI प्रणालियाँ कभी-कभी गलतियाँ करती हैं या अनिश्चित उत्तर देती हैं जिनके गंभीर परिणाम हो सकते हैं।
MIT की Themis AI, जिसे CSAIL लैब की प्रोफेसर Daniela Rus ने सह-स्थापित और नेतृत्व किया है, एक अग्रणी समाधान पेश करती है। उनकी तकनीक AI मॉडलों को यह सक्षम बनाती है कि वे 'जानें कि वे क्या नहीं जानते'। इसका मतलब है कि AI प्रणालियाँ स्वयं यह संकेत दे सकती हैं जब वे अपनी भविष्यवाणियों के बारे में अनिश्चित हों, जिससे हानिकारक निर्णयों से पहले गलतियों को रोका जा सकता है।
यह क्यों महत्वपूर्ण है?
कई AI मॉडल, यहाँ तक कि उन्नत भी, कभी-कभी तथाकथित 'हलुसिनेशन' दिखा सकते हैं—वे गलत या बिना आधार के उत्तर देते हैं। ऐसे क्षेत्रों में जहाँ निर्णयों का असर बड़ा होता है, जैसे चिकित्सा निदान या स्वायत्त ड्राइविंग, इसका विनाशकारी परिणाम हो सकता है। Themis AI ने Capsa विकसित किया, एक प्लेटफॉर्म जो uncertainty quantification लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और भरोसेमंद तरीके से मापता और मात्रात्मक रूप में दर्शाता है।
यह कैसे काम करता है?
मॉडल्स को uncertainty awareness सिखाकर, वे अपनी आउटपुट के साथ जोखिम या विश्वसनीयता का लेबल जोड़ सकते हैं। उदाहरण के लिए: एक स्वयं-चालित कार यह संकेत दे सकती है कि किसी स्थिति के बारे में वह अनिश्चित है और इसलिए मानव हस्तक्षेप सक्रिय कर सकती है। इससे न केवल सुरक्षा बढ़ती है, बल्कि उपयोगकर्ताओं का AI प्रणालियों पर विश्वास भी मजबूत होता है।
capsa_torch.wrapper() जिसमें आउटपुट में अनुमान के साथ-साथ जोखिम भी शामिल होता है:

निष्कर्ष
MIT टीम यह दिखाता है कि AI का भविष्य केवल अधिक बुद्धिमान बनने तक सीमित नहीं है, बल्कि सुरक्षित और न्यायसंगत संचालन पर भी केंद्रित होना चाहिए। NetCare में हमारा मानना है कि AI तभी वास्तविक रूप से मूल्यवान बनता है जब वह अपनी सीमाओं के प्रति पारदर्शी हो। Capsa जैसे उन्नत uncertainty quantification टूल्स के साथ आप इस दृष्टि को व्यावहारिक रूप में लागू कर सकते हैं।