AI के दुरुपयोग से डर रहे हैं Sam Altman, दे दी बड़ी चेतावनी!

10 mins read
10 views
AI के दुरुपयोग से डर रहे हैं Sam Altman, दे दी बड़ी चेतावनी!
December 30, 2025

Sam Altman AI warningArtificial Intelligence को भविष्य की सबसे बड़ी तकनीकी क्रांति माना जा रहा हैलेकिन अब इसी तकनीक को लेकर खुद OpenAI के CEO Sam Altman भी सतर्क होते जा रहे हैं। उनका मानना है कि AI जितना ताकतवर बनता जा रहा हैउतना ही उसके गलत इस्तेमाल का खतरा भी बढ़ता जा रहा है। इसी चिंता के चलते OpenAI ने सुरक्षा से जुड़ा एक महत्वपूर्ण कदम उठाया है। उन्होंने सैम ऑल्टमैन ने सोशल मीडिया प्लेटफॉर्म पर जानकारी दी कि OpenAI एक नया पद बना रहा है Head of Preparedness। यह भूमिका खास तौर पर भविष्य में AI से पैदा होने वाले गंभीर खतरों की पहचान और उनसे निपटने के लिए होगी। इस पद के लिए कंपनी 5.55 लाख डॉलर सालाना वेतन के साथ इक्विटी भी ऑफर कर रही है। इससे साफ है कि OpenAI इस जिम्मेदारी को कितनी गंभीरता से ले रहा है। 

AI अब वरदान या खतरा? OpenAI CEO सैम ऑल्टमैन ने खुद माना कि आर्टिफिशियल इंटेलिजेंस का गलत इस्तेमाल बड़ी चुनौती बन सकता है। जानिए पूरी वजह। 

2026 तक बढ़ सकते हैं खतरे 

OpenAI का आकलन है कि आने वाले एक-दो वर्षों मेंखासकर 2026 तक। AI से जुड़े सुरक्षा खतरे और ज्यादा जटिल हो सकते हैं। कंपनी को विशेष तौर पर चिंता AI एजेंट्स और प्रॉम्प्ट इंजेक्शन जैसी तकनीकों को लेकर है। ये ऐसे क्षेत्र हैंजहां AI का दुरुपयोग बड़े पैमाने पर किया जा सकता है। सैम ऑल्टमैन के मुताबिक, AI मॉडल अब केवल सवाल-जवाब तक सीमित नहीं रहे। वे अब जटिल कामकोडिंग और सिस्टम एनालिसिस में भी बेहद सक्षम हो चुके हैं। लेकिन यही क्षमता उन्हें कंप्यूटर सिक्योरिटी में गंभीर खामियां खोजने लायक भी बना रही है। ऑल्टमैन का कहना है कि AI की ताकत को सही दिशा में इस्तेमाल करना अब सबसे बड़ी चुनौती बन गया है। 

READ MORE-  बिना महंगे रिचार्ज के कॉल-SMS चालू रहेंगे सालभरफटाफट जानिए पूरा तरीका 

मेंटल हेल्थ भी बन रही बड़ी चिंता 

AI के बढ़ते प्रभाव का असर सिर्फ तकनीकी दुनिया तक सीमित नहीं है। यह अब मानसिक स्वास्थ्य पर भी गहरा असर छोड़ने लगा है। OpenAI ने यह भी स्वीकार किया है कि AI मॉडल्स का इंसानों के मानसिक स्वास्थ्य पर प्रभाव एक गंभीर मुद्दा बनता जा रहा है। 2025 के दौरान कंपनी ने इसके शुरुआती संकेत देखे थेजिसने उन्हें और ज्यादा सतर्क कर दिया। 

प्रॉम्प्ट इंजेक्शन क्या है और क्यों खतरनाक है? 

प्रॉम्प्ट इंजेक्शन एक ऐसी तकनीक हैजिसमें साइबर अपराधी AI को गलत या चालाकी भरे निर्देश देकर उससे मनचाहा और काम करवा सकते हैं। इससे AI सिस्टम की सुरक्षा पूरी तरह खतरे में पड़ सकती है। यही वजह है कि OpenAI इसे भविष्य के सबसे बड़े खतरे के रूप में देख रहा है।  

READ MORE- दिल्ली में होगा विश्वभर के टेक दिग्गजों का महासंगम, PM मोदी करेंगे नेतृत्व 

AI से हो रहे साइबर हमले 

कुछ दिन पहले आई एक रिपोर्ट्स बताती हैं कि AI का इस्तेमाल अब साइबर अटैक्स में भी तेजी से बढ़ रहा है। पिछले महीने ही AI कंपनी Anthropic ने खुलासा किया था कि उनके क्लाउड आधारित टूल्स का इस्तेमाल कर हैकर्स ने करीब 30 वैश्विक संगठनों को निशाना बनाया। इनमें टेक कंपनियांबैंकिंग सेक्टर और सरकारी संस्थान तक शामिल थे। जो यह साबित करने के लिए काफी है कि एआई साइबर अपराधियों के लिए भी एक बहुत बड़ा हथियार बनता जा रहा है। 

ChatGPT पर चल रहे कानूनी मामले 

AI से जुड़ी चिंताओं की एक बड़ी वजह ChatGPT पर चल रहे मुकदमे भी हैं। सैम ऑल्टमैन के अनुसार   कुछ हाई-प्रोफाइल मामलों में आरोप लगाया गया है कि ChatGPT ने किशोरों की मानसिक स्थिति को नकारात्मक रूप से प्रभावित किया है। वहींकुछ रिपोर्ट्स में यह भी कहा गया है कि AI चैटबॉट्स यूजर्स को भ्रमित कर सकते हैं। इन सब वजहों से OpenAI अब पहले से ज्यादा सतर्क हो गया है। और इससे निपटने के लिए तैयारियां शुरू कर दी है। 

कुल मिलाकर OpenAI एआई को सुरक्षित और जिम्मेदार तरीके से इस्तेमाल योग्य बनाने पर भी फोकस कर रही है। AI भविष्य हैलेकिन अगर इसे समय रहते कंट्रोल नहीं किया गया तो यही तकनीक बड़ा खतरा भी बन सकती है।  

Leave a Reply

Your email address will not be published.

‘जुकरबर्ग का 77 बिलियन डॉलर Metaverse में फेल’
Previous Story

‘जुकरबर्ग का 77 बिलियन डॉलर Metaverse में फेल’

Poco M8 5G की भारत में लॉन्च डेट फाइनल, जानें क्यों है खास
Next Story

Poco M8 5G की भारत में लॉन्च डेट फाइनल, जानें क्यों है खास

Latest from Artificial Intellience

robot study

अब बीमारी नहीं रोकेगी पढ़ाई, रोबोट रखेगा बच्चे को स्कूल से जोड़े…जानें कैसे?

AV1 Robot: किसी बच्चे का स्कूल न जा पाना सिर्फ पढ़ाई छूटना ही उनके दोस्तों, हँसी-मजाक और रोज़मर्रा की ज़िंदगी से कट जाना भी
Prompt-Injection

Prompt Injection कैसे बन सकता है यूजर्स के लिए खतरा?

Openai AI Browser Security: AI टेक्नोलॉजी तेजी से हमारी रोजमर्रा की जिंदगी का हिस्सा बनती जा रही है। अब ऐसे AI एजेंट्स आ चुके हैं जो इंटरनेट ब्राउज कर सकते हैं, लिंक पर क्लिक कर सकते हैं, स्क्रॉल कर सकते हैं और यूजर की तरफ से काम भी कर सकते हैं। OpenAI का नया सिस्टम ChatGPT Atlas Agent Mode भी ऐसा ही एक ब्राउजर बेस्ड AI है, जो डिजिटल असिस्टेंट की तरह काम करता है, लेकिन इस स्मार्ट तकनीक के पीछे एक गंभीर सुरक्षा चिंता भी छुपी है, जिसे OpenAI ने खुद खुलकर स्वीकार किया है।  AI ब्राउजर एजेंट्स इंटरनेट चलाने में मदद तो करते हैं, लेकिन OpenAI ने खुद इनके सिक्योरिटी जोखिम को लेकर चेतावनी दी है, जानिए Prompt Injection क्या है और यह यूजर्स के लिए क्यों खतरनाक हो सकता है।  सुरक्षित नहीं हैं AI ब्राउजर  OpenAI का कहना है कि चाहे AI कितना भी स्मार्ट क्यों न हो, ऐसे ब्राउजर एजेंट्स को पूरी तरह सुरक्षित बनाना बेहद मुश्किल है। इसकी सबसे बड़ी वजह Prompt Injection Attack है। कंपनी इसे एक लॉन्ग टर्म AI सिक्योरिटी चैलेंज मानती है और यह भी मानती है कि साइबर हमलावर पहले से ही इन AI सिस्टम्स को गुमराह करने के तरीके खोज रहे हैं।  Prompt Injection क्या होता है?  Prompt Injection एक ऐसा तरीका है जिसमें किसी वेबसाइट, ईमेल, PDF, डॉक्युमेंट या कैलेंडर इनवाइट के अंदर छुपे हुए निर्देश डाले जाते हैं। AI इन छुपे मैसेज को असली कमांड समझ लेता है और यूजर के आदेशों को नजरअंदाज करके हमलावर की बात मान लेता है।  इससे कितना बड़ा नुकसान हो सकता है?  OpenAI के मुताबिक, अगर ऐसा हमला सफल हो जाए तो AI एजेंट प्राइवेट ईमेल आगे भेज सकता है, बिना अनुमति पैसे ट्रांसफर कर सकता है, पर्सनल फाइल्स लीक कर सकता है, गलत या अफवाह वाले मैसेज लिख सकता है और ऑफिस के टूल्स का गलत इस्तेमाल कर सकता है जैसे काम कर सकता है।  READ MORE: भारत में ही क्यों Free मिल रहा OpenAI, Google और Perplexity?  इस खतरे से खुद कैसे लड़ रहा है OpenAI?  OpenAI सिर्फ खतरे नहीं बता रहा है। दरअसल, कंपनी ने खुद एक AI रेड टीम अटैकर सिस्टम बनाया है। यह सिस्टम हैकर की तरह सोचता है और बार–बार AI ब्राउजर पर हमला करने की कोशिश करता है। यह अटैकर AI

Don't Miss