Stanford Research: AI चैटबॉट्स सच और झूठ अलग नहीं कर पाते

Stanford Research: AI चैटबॉट्स सच और झूठ अलग नहीं कर पाते

7 mins read
970 views
November 6, 2025

Stanford Research: हाल ही में Stanford Research के शोधकर्ताओं ने एक अध्ययन प्रकाशित किया है, जिसमें यह सवाल उठाया गया है कि क्या AI मॉडल वास्तव में यह समझ पाते हैं कि कौन सी जानकारी सच है और कौन सी सिर्फ किसी का विश्वास। यह अध्ययन Nature Machine Intelligence में प्रकाशित हुआ। इसमें पाया गया कि बड़े भाषा मॉडल अक्सर तथ्य और व्यक्तिगत विश्वास में फर्क नहीं कर पाते और गलत विश्वास को पहचानने में भी पीछे रहते हैं।

स्टैनफोर्ड यूनिवर्सिटी के शोध से पता चला कि बड़े भाषा मॉडल्स झूठे विश्वास को पहचानने में असफल हैं। उपयोगकर्ताओं को AI उत्तरों को पूर्ण सच मानने में सतर्क रहना चाहिए।

अध्ययन में क्या मिला

शोध टीम के नेतृत्व में जेम्स ज़ू, एसोसिएट प्रोफेसर ने 13,000 प्रश्नों पर 24 लोकप्रिय LLMs का परीक्षण किया। उनका लक्ष्य था यह देखना कि मॉडल्स तथ्यों, विश्वासों और झूठी जानकारियों को कितनी सही तरह समझ पाते हैं। परिणाम बताते हैं कि GPT-4o और DeepSeek R1 जैसे नए मॉडल भी पहले व्यक्ति के झूठे विश्वास को पहचानने में कमजोर हैं। उदाहरण के लिए, GPT-4o ने सच्चे विश्वास को 98.2% सही पहचाना, लेकिन झूठे विश्वास में यह गिरकर सिर्फ 64.4% रह गया। वहीं, DeepSeek R1 की सटीकता झूठे विश्वास में केवल 14.4% रह गई।

सच और झूठे तथ्यों को पहचानने में नए मॉडल्स ने बेहतर प्रदर्शन किया, 91% से ऊपर सटीकता दिखाई, जबकि पुराने मॉडल्स की औसत सटीकता 71-85% के बीच थी। शोध में यह भी पाया गया कि मॉडल्स दूसरों के विश्वास को खुद के विश्वास की तुलना में बेहतर समझ पाते हैं।

क्यों है यह महत्वपूर्ण

शोधकर्ताओं ने चेतावनी दी है कि यह अंतर वास्तविक जीवन में गंभीर परिणाम ला सकता है। मेडिकल, कानूनी, पत्रकारिता और विज्ञान के क्षेत्र में AI का उपयोग बढ़ रहा है। यदि AI यह अंतर नहीं समझ पाए, तो गलत निदान, न्यायिक निर्णय में भ्रम और गलत जानकारी फैलने का खतरा बढ़ सकता है।

शोध टीम ने KaBLE नामक बेंचमार्क बनाया, जिसमें 13 तरह के ज्ञान और विश्वास से जुड़े कार्य शामिल थे। इसके जरिए मॉडल्स की क्षमता का आकलन किया गया। परिणाम से पता चला कि AI मॉडल्स स्व-संबंधित बयान समझने में कमजोर हैं, जिसे शोधकर्ताओं नेआरोपण पूर्वाग्रह  कहा।

READ MORE: ChatGPT Plus vs Gemini AI Pro: कौन है अपके लिए बेस्ट?

मानव बुद्धि और AI में अंतर

अध्ययन में बताया गया कि मानव मस्तिष्क सहज रूप से यह समझ लेता है कि ‘मैं मानता हूं कि कल बारिश होगी’ और ‘मैं जानता हूं कि पृथ्वी सूर्य के चारों ओर घूमती है’ में क्या फर्क है। AI मॉडल्स के पास यह सहज समझ अभी नहीं है।

READ MORE: Perplexity AI के CEO ने युवाओं को दी सलाह, कहा- इस काम में समय न करें बर्बाद वर्ना…

उपयोगकर्ताओं के लिए संदेश

शोध निष्कर्ष बताता है कि LLMs को विश्वसनीय बनने से पहले सुधार की जरूरत है, खासकर उन क्षेत्रों में जहां गलत जानकारी गंभीर नतीजे ला सकती है। जब तक सुधार नहीं होता, उपयोगकर्ताओं को AI उत्तरों को पूर्ण सच मानने में सतर्क रहना चाहिए।

Ragini Sinha

Ragini Sinha Analytics Insight में कंटेंट एनालिस्ट के रूप में कार्यरत हैं। यहां वह स्मार्ट टेक्नोलॉजी, गेमिंग, OTT, क्रिप्टोकरेंसी, ट्रेंडिंग न्यूज और स्टॉक मार्केट जैसे विषयों पर काम करती हैं और जटिल जानकारी को सरल व प्रभावशाली कंटेंट में बदलने के लिए जानी जाती हैं।
मीडिया इंडस्ट्री में 7 सालों के अनुभव के साथ उन्होंने कंटेंट राइटर से लेकर सीनियर कंटेंट राइटर और प्रोग्राम प्रोड्यूसर तक का सफर तय किया है। उन्होंने बिहार चुनाव और दिल्ली चुनाव जैसे बड़े इवेंट्स को कवर करते हुए ग्राउंड रिपोर्टिंग और गहन विश्लेषण में मजबूत पकड़ बनाई है, जिसके लिए उन्हें पुरस्कार से सम्मानित भी किया गया है।

रागिनी ने Zee News, NewsTrack, ETV Bharat और Way2News जैसे प्रमुख मीडिया प्लेटफॉर्म्स के साथ काम किया है। उन्होंने Makhanlal Chaturvedi National University of Journalism and Communication से बैचलर डिग्री और Bharatiya Vidya Bhavan से Public Relation में अध्ययन किया है।

Hyperliquid लाएगा Coinbase स्टॉक के लिए पर्पेचुअल ट्रेडिंग
Previous Story

Hyperliquid लाएगा Coinbase स्टॉक के लिए पर्पेचुअल ट्रेडिंग

Next Story

महाराष्ट्र ने Starlink से किया बड़ा समझौता, पहुंचाएगा हाई-स्पीड इंटरनेट

Latest from Artificial Intelligence

Don't Miss