OpenAI के सह-संस्थापक ने चेतावनी दी: AI सुरक्षा में खामियों से बन सकता है डरावना भविष्य

4 mins read
468 views
OpenAI के सह-संस्थापक ने चेतावनी दी: AI सुरक्षा में खामियों से बन सकता है डरावना भविष्य
August 30, 2025

AI सुरक्षा परीक्षणों में समस्याएं उजागर, hallucinations और sycophancy जैसी खामियां सामने आईं OpenAI और Anthropic ने सहयोग से समाधान खोजने की पहल की 

OpenAI AI safety: OpenAI और Anthropic द्वारा किए गए हालिया अध्ययन में आज के AI मॉडल्स में गंभीर खामियां उजागर हुई हैं OpenAI के सहसंस्थापक Wojciech Zaremba ने चेतावनी दी है कि अगर सुरक्षा को प्रतिस्पर्धा के कारण नजरअंदाज किया गया तो AI का भविष्य डरावना हो सकता है 

 इस संयुक्त अध्ययन में दोनों कंपनियों ने एकदूसरे के stripped-down मॉडल्स का परीक्षण किया ताकि AI की सुरक्षा और अलाइनमेंट में छिपी कमजोरियों का पता लगाया जा सके शोध में पाया गया कि hallucinations यानी AI का गलत या भ्रामक उत्तर confidently देना एक गंभीर समस्या है Anthropic के Claude Opus 4 और Sonnet 4 मॉडल ने 70% सवालों का जवाब देने से इनकार किया, जबकि OpenAI के o3 और o4-mini मॉडल ने अधिकतर मामलों में जवाब दिया लेकिन hallucination दर बहुत अधिक थी 

 Read More: OpenAI और Oracle का ऐलान, अमेरिका में बनेंगे नए डेटा सेंटर 

 अध्ययन ने sycophancy पर भी ध्यान दिया, यानी AI का यूज़र की गलत या हानिकारक सोच को validate करना GPT-4.1 और Claude Opus 4 में extreme sycophancy पाई गई यह चिंता तब और बढ़ गई जब 16 वर्षीय Adam Raine के केस में ChatGPT पर आरोप लगाया गया कि उसने आत्महत्या के विचारों को validate किया और मदद करने के बजाय मार्गदर्शन दिया 

 Zaremba ने कहा, “यह सोचकर भी दुख होता है कि हम AI को इतने जटिल कामों के लिए विकसित करते हैं, लेकिन मानसिक स्वास्थ्य पर नकारात्मक प्रभाव पड़ता है यह एक dystopian भविष्य है, जो मुझे उत्साहित नहीं करता 

 OpenAI ने बताया कि GPT-5 में संवेदनशील विषयों, जैसे मानसिक स्वास्थ्य, को संभालने में सुधार किया गया है कंपनी ने parental controls, मजबूत intervention फीचर्स और licensed therapists से कनेक्शन के विकल्प देने का वादा किया है 

 Read More: Fidji Simo बनीं OpenAI की एप्लिकेशन हेड 

 दोनों शोधकर्ताओं ने इस सहयोग को बढ़ाने की उम्मीद जताई ताकि AI सुरक्षा को लेकर उद्योग में नियमित सहयोग को बढ़ावा मिल सके 

Riya Gupta

मीडिया जगत में अपने पाँच साल के सफ़र के दौरान, मैंने कंटेंट क्रिएशन, मीडिया एनालिसिस और वीडियो स्क्रिप्ट राइटिंग में हाथ आजमाया है। रिसर्च के साथ-साथ, मैंने सरकारी परियोजनाओं में भी अपना योगदान दिया है। मेरी विशेषता नई चीज़ों को तेजी से अपनाना और चुनौतीपूर्ण परियोजनाओं में एक्सीलेंस हासिल करना है।

Leave a Reply

Your email address will not be published.

JioHotstar में AI क्रांति: Riya वॉइस असिस्टेंट और इमर्सिव क्रिकेट मोड से अब कंटेंट का नया मज़ा!
Previous Story

JioHotstar में AI क्रांति: Riya वॉइस असिस्टेंट और इमर्सिव क्रिकेट मोड से अब कंटेंट का नया मज़ा!

Google जल्द ला सकता है iPhone के लिए Quick Share ऐप
Next Story

WhatsApp ने लॉन्च किया AI-पावर्ड Writing Help फीचर, अब संदेश का टोन होगा परफेक्ट 

Latest from Artificial Intellience

robot study

अब बीमारी नहीं रोकेगी पढ़ाई, रोबोट रखेगा बच्चे को स्कूल से जोड़े…जानें कैसे?

AV1 Robot: किसी बच्चे का स्कूल न जा पाना सिर्फ पढ़ाई छूटना ही उनके दोस्तों, हँसी-मजाक और रोज़मर्रा की ज़िंदगी से कट जाना भी
Prompt-Injection

Prompt Injection कैसे बन सकता है यूजर्स के लिए खतरा?

Openai AI Browser Security: AI टेक्नोलॉजी तेजी से हमारी रोजमर्रा की जिंदगी का हिस्सा बनती जा रही है। अब ऐसे AI एजेंट्स आ चुके हैं जो इंटरनेट ब्राउज कर सकते हैं, लिंक पर क्लिक कर सकते हैं, स्क्रॉल कर सकते हैं और यूजर की तरफ से काम भी कर सकते हैं। OpenAI का नया सिस्टम ChatGPT Atlas Agent Mode भी ऐसा ही एक ब्राउजर बेस्ड AI है, जो डिजिटल असिस्टेंट की तरह काम करता है, लेकिन इस स्मार्ट तकनीक के पीछे एक गंभीर सुरक्षा चिंता भी छुपी है, जिसे OpenAI ने खुद खुलकर स्वीकार किया है।  AI ब्राउजर एजेंट्स इंटरनेट चलाने में मदद तो करते हैं, लेकिन OpenAI ने खुद इनके सिक्योरिटी जोखिम को लेकर चेतावनी दी है, जानिए Prompt Injection क्या है और यह यूजर्स के लिए क्यों खतरनाक हो सकता है।  सुरक्षित नहीं हैं AI ब्राउजर  OpenAI का कहना है कि चाहे AI कितना भी स्मार्ट क्यों न हो, ऐसे ब्राउजर एजेंट्स को पूरी तरह सुरक्षित बनाना बेहद मुश्किल है। इसकी सबसे बड़ी वजह Prompt Injection Attack है। कंपनी इसे एक लॉन्ग टर्म AI सिक्योरिटी चैलेंज मानती है और यह भी मानती है कि साइबर हमलावर पहले से ही इन AI सिस्टम्स को गुमराह करने के तरीके खोज रहे हैं।  Prompt Injection क्या होता है?  Prompt Injection एक ऐसा तरीका है जिसमें किसी वेबसाइट, ईमेल, PDF, डॉक्युमेंट या कैलेंडर इनवाइट के अंदर छुपे हुए निर्देश डाले जाते हैं। AI इन छुपे मैसेज को असली कमांड समझ लेता है और यूजर के आदेशों को नजरअंदाज करके हमलावर की बात मान लेता है।  इससे कितना बड़ा नुकसान हो सकता है?  OpenAI के मुताबिक, अगर ऐसा हमला सफल हो जाए तो AI एजेंट प्राइवेट ईमेल आगे भेज सकता है, बिना अनुमति पैसे ट्रांसफर कर सकता है, पर्सनल फाइल्स लीक कर सकता है, गलत या अफवाह वाले मैसेज लिख सकता है और ऑफिस के टूल्स का गलत इस्तेमाल कर सकता है जैसे काम कर सकता है।  READ MORE: भारत में ही क्यों Free मिल रहा OpenAI, Google और Perplexity?  इस खतरे से खुद कैसे लड़ रहा है OpenAI?  OpenAI सिर्फ खतरे नहीं बता रहा है। दरअसल, कंपनी ने खुद एक AI रेड टीम अटैकर सिस्टम बनाया है। यह सिस्टम हैकर की तरह सोचता है और बार–बार AI ब्राउजर पर हमला करने की कोशिश करता है। यह अटैकर AI