Stanford Research: हाल ही में Stanford Research के शोधकर्ताओं ने एक अध्ययन प्रकाशित किया है, जिसमें यह सवाल उठाया गया है कि क्या AI मॉडल वास्तव में यह समझ पाते हैं कि कौन सी जानकारी सच है और कौन सी सिर्फ किसी का विश्वास। यह अध्ययन Nature Machine Intelligence में प्रकाशित हुआ। इसमें पाया गया कि बड़े भाषा मॉडल अक्सर तथ्य और व्यक्तिगत विश्वास में फर्क नहीं कर पाते और गलत विश्वास को पहचानने में भी पीछे रहते हैं।
स्टैनफोर्ड यूनिवर्सिटी के शोध से पता चला कि बड़े भाषा मॉडल्स झूठे विश्वास को पहचानने में असफल हैं। उपयोगकर्ताओं को AI उत्तरों को पूर्ण सच मानने में सतर्क रहना चाहिए।
अध्ययन में क्या मिला
शोध टीम के नेतृत्व में जेम्स ज़ू, एसोसिएट प्रोफेसर ने 13,000 प्रश्नों पर 24 लोकप्रिय LLMs का परीक्षण किया। उनका लक्ष्य था यह देखना कि मॉडल्स तथ्यों, विश्वासों और झूठी जानकारियों को कितनी सही तरह समझ पाते हैं। परिणाम बताते हैं कि GPT-4o और DeepSeek R1 जैसे नए मॉडल भी पहले व्यक्ति के झूठे विश्वास को पहचानने में कमजोर हैं। उदाहरण के लिए, GPT-4o ने सच्चे विश्वास को 98.2% सही पहचाना, लेकिन झूठे विश्वास में यह गिरकर सिर्फ 64.4% रह गया। वहीं, DeepSeek R1 की सटीकता झूठे विश्वास में केवल 14.4% रह गई।
सच और झूठे तथ्यों को पहचानने में नए मॉडल्स ने बेहतर प्रदर्शन किया, 91% से ऊपर सटीकता दिखाई, जबकि पुराने मॉडल्स की औसत सटीकता 71-85% के बीच थी। शोध में यह भी पाया गया कि मॉडल्स दूसरों के विश्वास को खुद के विश्वास की तुलना में बेहतर समझ पाते हैं।
क्यों है यह महत्वपूर्ण
शोधकर्ताओं ने चेतावनी दी है कि यह अंतर वास्तविक जीवन में गंभीर परिणाम ला सकता है। मेडिकल, कानूनी, पत्रकारिता और विज्ञान के क्षेत्र में AI का उपयोग बढ़ रहा है। यदि AI यह अंतर नहीं समझ पाए, तो गलत निदान, न्यायिक निर्णय में भ्रम और गलत जानकारी फैलने का खतरा बढ़ सकता है।
शोध टीम ने KaBLE नामक बेंचमार्क बनाया, जिसमें 13 तरह के ज्ञान और विश्वास से जुड़े कार्य शामिल थे। इसके जरिए मॉडल्स की क्षमता का आकलन किया गया। परिणाम से पता चला कि AI मॉडल्स स्व-संबंधित बयान समझने में कमजोर हैं, जिसे शोधकर्ताओं नेआरोपण पूर्वाग्रह कहा।
READ MORE: ChatGPT Plus vs Gemini AI Pro: कौन है अपके लिए बेस्ट?
मानव बुद्धि और AI में अंतर
अध्ययन में बताया गया कि मानव मस्तिष्क सहज रूप से यह समझ लेता है कि ‘मैं मानता हूं कि कल बारिश होगी’ और ‘मैं जानता हूं कि पृथ्वी सूर्य के चारों ओर घूमती है’ में क्या फर्क है। AI मॉडल्स के पास यह सहज समझ अभी नहीं है।
READ MORE: Perplexity AI के CEO ने युवाओं को दी सलाह, कहा- इस काम में समय न करें बर्बाद वर्ना…
उपयोगकर्ताओं के लिए संदेश
शोध निष्कर्ष बताता है कि LLMs को विश्वसनीय बनने से पहले सुधार की जरूरत है, खासकर उन क्षेत्रों में जहां गलत जानकारी गंभीर नतीजे ला सकती है। जब तक सुधार नहीं होता, उपयोगकर्ताओं को AI उत्तरों को पूर्ण सच मानने में सतर्क रहना चाहिए।
