Claude के निर्माता का चेतावनी: AI कोडिंग हमेशा भरोसेमंद नहीं

5 mins read
131 views
claude
December 17, 2025

AI Coding Warning: Anthropic के Claude Code के इंजीनियर बोरिस चेर्नी ने चेतावनी दी है कि AI सहायता वाली vibe coding सिर्फ प्रोटोटाइप बनाने के लिए सही है, लेकिन उत्पादन के लिए तैयार कोड के लिए भरोसेमंद नहीं। उन्होंने कहा कि यह तरीका हर समय इस्तेमाल करने के लिए सही नहीं है।

AI वाइब कोडिंग प्रोटोटाइप बनाने में मदद करती है, लेकिन उत्पादन कोड के लिए भरोसेमंद नहीं। उद्योग विशेषज्ञों के अनुसार इंसानी निगरानी और अनुभव अभी भी अनिवार्य है।

बड़ी कंपनियों में AI कोडिंग की बढ़ती हिस्सेदारी

Google और Microsoft जैसी टेक कंपनियों ने अपनी कोडिंग में AI की हिस्सेदारी बढ़ने की जानकारी दी है। Google के CEO सुंदर पिचाई ने कहा है कि अब Google में 25% नया कोड AI लिखता है, जबकि 2024 में भी यही आंकड़ा था। Microsoft के CEO सत्य नडेला ने बताया कि Microsoft का लगभग 30% कोड AI से तैयार होता है।

प्रोडक्शन कोड में चुनौती

चेर्नी का कहना है कि मानव निगरानी जरूरी है। कभी-कभी आपको मेंटेनेबल और सोच-समझकर लिखा गया कोड चाहिए। AI केवल सुझाव दे सकता है, लेकिन अंतिम कंट्रोल इंसान के पास होना चाहिए। चेर्नी अपने काम में AI का इस्तेमाल कोड का प्लान बनाने, सुधारने या साफ करने के लिए करते हैं, लेकिन महत्वपूर्ण हिस्सों का कोड वह खुद लिखते हैं। उनका कहना है कि वाइब कोडिंग सिर्फ थ्रोअवे प्रोटोटाइप में ठीक है, गंभीर और जटिल प्रोजेक्ट्स के लिए भरोसेमंद नहीं।

READ MORE: सेल्फी से लेकर यादों तक सबका हिसाब देगा, Google का यह फीचर…

AI कोडिंग की वर्तमान स्थिति

चेर्नी ने माना कि AI कोडिंग में सुधार हुआ है, लेकिन यह अभी भी पूर्ण रूप से सही नहीं है। AI मॉडल में अभी भी गलतियां, लंबा और जटिल कोड और संरचना में कमी हो सकती है।

READ MORE: Google करेगा 2026 में पहली AI स्मार्ट ग्लासेज लॉन्च

उद्योग विशेषज्ञों की राय

 Google के पिचाई ने कहा कि बड़े कोडबेस पर AI का भरोसा नहीं किया जा सकता। Zoho के संस्थापक Sridhar Vembu ने कहा कि कोडिंग एक गहरी कला है और इसे सिर्फ नेचुरल-लैंग्वेज प्रॉम्प्ट्स पर नहीं छोड़ा जा सकता।

Ragini Sinha

5 साल के अनुभव के साथ मैंने मीडिया जगत में कंटेट राइटर, सीनियर कंटेंट राइटर, मीडिया एनालिस्ट और प्रोग्राम प्रोड्यूसर के तौर पर काम किया है। बिहार चुनाव और दिल्ली चुनाव को मैंने कवर किया है। अपने काम को लेकर मुझे पुरस्कार से सम्मानित भी किया जा चुका है। काम को जल्दी सीखने की कला मुझे औरों से अलग बनाती है।

Leave a Reply

Your email address will not be published.

super computer
Previous Story

आ गया विश्व का सबसे छोटा AI सुपरकंप्यूटर…पॉकेट में लेकर घूम सकते हैं आप

OnePlus Turbo Series कंफर्म: गेमिंग लवर्स हो जाएं तैयार
Next Story

OnePlus Turbo Series कंफर्म: गेमिंग लवर्स हो जाएं तैयार

Latest from Artificial Intellience

robot study

अब बीमारी नहीं रोकेगी पढ़ाई, रोबोट रखेगा बच्चे को स्कूल से जोड़े…जानें कैसे?

AV1 Robot: किसी बच्चे का स्कूल न जा पाना सिर्फ पढ़ाई छूटना ही उनके दोस्तों, हँसी-मजाक और रोज़मर्रा की ज़िंदगी से कट जाना भी
Prompt-Injection

Prompt Injection कैसे बन सकता है यूजर्स के लिए खतरा?

Openai AI Browser Security: AI टेक्नोलॉजी तेजी से हमारी रोजमर्रा की जिंदगी का हिस्सा बनती जा रही है। अब ऐसे AI एजेंट्स आ चुके हैं जो इंटरनेट ब्राउज कर सकते हैं, लिंक पर क्लिक कर सकते हैं, स्क्रॉल कर सकते हैं और यूजर की तरफ से काम भी कर सकते हैं। OpenAI का नया सिस्टम ChatGPT Atlas Agent Mode भी ऐसा ही एक ब्राउजर बेस्ड AI है, जो डिजिटल असिस्टेंट की तरह काम करता है, लेकिन इस स्मार्ट तकनीक के पीछे एक गंभीर सुरक्षा चिंता भी छुपी है, जिसे OpenAI ने खुद खुलकर स्वीकार किया है।  AI ब्राउजर एजेंट्स इंटरनेट चलाने में मदद तो करते हैं, लेकिन OpenAI ने खुद इनके सिक्योरिटी जोखिम को लेकर चेतावनी दी है, जानिए Prompt Injection क्या है और यह यूजर्स के लिए क्यों खतरनाक हो सकता है।  सुरक्षित नहीं हैं AI ब्राउजर  OpenAI का कहना है कि चाहे AI कितना भी स्मार्ट क्यों न हो, ऐसे ब्राउजर एजेंट्स को पूरी तरह सुरक्षित बनाना बेहद मुश्किल है। इसकी सबसे बड़ी वजह Prompt Injection Attack है। कंपनी इसे एक लॉन्ग टर्म AI सिक्योरिटी चैलेंज मानती है और यह भी मानती है कि साइबर हमलावर पहले से ही इन AI सिस्टम्स को गुमराह करने के तरीके खोज रहे हैं।  Prompt Injection क्या होता है?  Prompt Injection एक ऐसा तरीका है जिसमें किसी वेबसाइट, ईमेल, PDF, डॉक्युमेंट या कैलेंडर इनवाइट के अंदर छुपे हुए निर्देश डाले जाते हैं। AI इन छुपे मैसेज को असली कमांड समझ लेता है और यूजर के आदेशों को नजरअंदाज करके हमलावर की बात मान लेता है।  इससे कितना बड़ा नुकसान हो सकता है?  OpenAI के मुताबिक, अगर ऐसा हमला सफल हो जाए तो AI एजेंट प्राइवेट ईमेल आगे भेज सकता है, बिना अनुमति पैसे ट्रांसफर कर सकता है, पर्सनल फाइल्स लीक कर सकता है, गलत या अफवाह वाले मैसेज लिख सकता है और ऑफिस के टूल्स का गलत इस्तेमाल कर सकता है जैसे काम कर सकता है।  READ MORE: भारत में ही क्यों Free मिल रहा OpenAI, Google और Perplexity?  इस खतरे से खुद कैसे लड़ रहा है OpenAI?  OpenAI सिर्फ खतरे नहीं बता रहा है। दरअसल, कंपनी ने खुद एक AI रेड टीम अटैकर सिस्टम बनाया है। यह सिस्टम हैकर की तरह सोचता है और बार–बार AI ब्राउजर पर हमला करने की कोशिश करता है। यह अटैकर AI

Don't Miss