Stanford Research: AI चैटबॉट्स सच और झूठ अलग नहीं कर पाते

7 mins read
32 views
Stanford Research: AI चैटबॉट्स सच और झूठ अलग नहीं कर पाते
November 6, 2025

Stanford Research: हाल ही में Stanford Research के शोधकर्ताओं ने एक अध्ययन प्रकाशित किया है, जिसमें यह सवाल उठाया गया है कि क्या AI मॉडल वास्तव में यह समझ पाते हैं कि कौन सी जानकारी सच है और कौन सी सिर्फ किसी का विश्वास। यह अध्ययन Nature Machine Intelligence में प्रकाशित हुआ। इसमें पाया गया कि बड़े भाषा मॉडल अक्सर तथ्य और व्यक्तिगत विश्वास में फर्क नहीं कर पाते और गलत विश्वास को पहचानने में भी पीछे रहते हैं।

स्टैनफोर्ड यूनिवर्सिटी के शोध से पता चला कि बड़े भाषा मॉडल्स झूठे विश्वास को पहचानने में असफल हैं। उपयोगकर्ताओं को AI उत्तरों को पूर्ण सच मानने में सतर्क रहना चाहिए।

अध्ययन में क्या मिला

शोध टीम के नेतृत्व में जेम्स ज़ू, एसोसिएट प्रोफेसर ने 13,000 प्रश्नों पर 24 लोकप्रिय LLMs का परीक्षण किया। उनका लक्ष्य था यह देखना कि मॉडल्स तथ्यों, विश्वासों और झूठी जानकारियों को कितनी सही तरह समझ पाते हैं। परिणाम बताते हैं कि GPT-4o और DeepSeek R1 जैसे नए मॉडल भी पहले व्यक्ति के झूठे विश्वास को पहचानने में कमजोर हैं। उदाहरण के लिए, GPT-4o ने सच्चे विश्वास को 98.2% सही पहचाना, लेकिन झूठे विश्वास में यह गिरकर सिर्फ 64.4% रह गया। वहीं, DeepSeek R1 की सटीकता झूठे विश्वास में केवल 14.4% रह गई।

सच और झूठे तथ्यों को पहचानने में नए मॉडल्स ने बेहतर प्रदर्शन किया, 91% से ऊपर सटीकता दिखाई, जबकि पुराने मॉडल्स की औसत सटीकता 71-85% के बीच थी। शोध में यह भी पाया गया कि मॉडल्स दूसरों के विश्वास को खुद के विश्वास की तुलना में बेहतर समझ पाते हैं।

क्यों है यह महत्वपूर्ण

शोधकर्ताओं ने चेतावनी दी है कि यह अंतर वास्तविक जीवन में गंभीर परिणाम ला सकता है। मेडिकल, कानूनी, पत्रकारिता और विज्ञान के क्षेत्र में AI का उपयोग बढ़ रहा है। यदि AI यह अंतर नहीं समझ पाए, तो गलत निदान, न्यायिक निर्णय में भ्रम और गलत जानकारी फैलने का खतरा बढ़ सकता है।

शोध टीम ने KaBLE नामक बेंचमार्क बनाया, जिसमें 13 तरह के ज्ञान और विश्वास से जुड़े कार्य शामिल थे। इसके जरिए मॉडल्स की क्षमता का आकलन किया गया। परिणाम से पता चला कि AI मॉडल्स स्व-संबंधित बयान समझने में कमजोर हैं, जिसे शोधकर्ताओं नेआरोपण पूर्वाग्रह  कहा।

READ MORE: ChatGPT Plus vs Gemini AI Pro: कौन है अपके लिए बेस्ट?

मानव बुद्धि और AI में अंतर

अध्ययन में बताया गया कि मानव मस्तिष्क सहज रूप से यह समझ लेता है कि ‘मैं मानता हूं कि कल बारिश होगी’ और ‘मैं जानता हूं कि पृथ्वी सूर्य के चारों ओर घूमती है’ में क्या फर्क है। AI मॉडल्स के पास यह सहज समझ अभी नहीं है।

READ MORE: Perplexity AI के CEO ने युवाओं को दी सलाह, कहा- इस काम में समय न करें बर्बाद वर्ना…

उपयोगकर्ताओं के लिए संदेश

शोध निष्कर्ष बताता है कि LLMs को विश्वसनीय बनने से पहले सुधार की जरूरत है, खासकर उन क्षेत्रों में जहां गलत जानकारी गंभीर नतीजे ला सकती है। जब तक सुधार नहीं होता, उपयोगकर्ताओं को AI उत्तरों को पूर्ण सच मानने में सतर्क रहना चाहिए।

Ragini Sinha

5 साल के अनुभव के साथ मैंने मीडिया जगत में कंटेट राइटर, सीनियर कंटेंट राइटर, मीडिया एनालिस्ट और प्रोग्राम प्रोड्यूसर के तौर पर काम किया है। बिहार चुनाव और दिल्ली चुनाव को मैंने कवर किया है। अपने काम को लेकर मुझे पुरस्कार से सम्मानित भी किया जा चुका है। काम को जल्दी सीखने की कला मुझे औरों से अलग बनाती है।

Leave a Reply

Your email address will not be published.

Hyperliquid लाएगा Coinbase स्टॉक के लिए पर्पेचुअल ट्रेडिंग
Previous Story

Hyperliquid लाएगा Coinbase स्टॉक के लिए पर्पेचुअल ट्रेडिंग

Latest from Artificial Intelligence

Don't Miss