AI बन रहा लोगों के लिए खतरा? खुद का ऐसे करें बचाव

9 mins read
193 views
November 22, 2024

आजकल Google Gemini, ChatGPT जैसे AI टूल्स का इस्तेमाल काफी ज्यादा बढ़ गया है। ये कई काम आसान कर देते हैं, लेकिन यह इंसानों के लिए खतरा भी हो सकते हैं।

Artificial intelligence : आर्टिफिशियल इंटेलिजेंस की आज तकनीक की दुनिया में सबसे ज्यादा चर्चा होती है। AI को इंसानी जीवन में क्रांतिकारी बदलाव के शुरुआती संकेत के तौर पर देखा जा रहा है, लेकिन क्या इंसानों की बनाई मशीन इंसानों पर हावी हो सकती है ? ये सवाल इसलिए पूछा जा रहा है क्योंकि हर रोज ऐसे उदाहरण सामने आ रहे हैं जिनमें ये साफ हो रहा है कि अगर AI बेकाबू से बाहर हो गया तो ये इंसानों के लिए बड़ी समस्या बन जाएगा।

क्या है AI

AI वो तकनीक है जो मशीनों में इंसान जैसा दिमाग लाती है। कोडिंग के जरिए मशीनों में इंसान जैसी इंटेलिजेंस विकसित की जाती है, ताकि वो इंसानों की तरह सीख सकें, खुद से फैसले ले सकें। कमांड का पालन कर सकें और मल्टीटास्किंग कर सकें।

अमेरिका के मिशिगन में एक ग्रेजुएट छात्र ने अपने होमवर्क के लिए Google के Gemini चैटबॉट की हेल्प ली। वह AI चैटबॉट से बुजुर्गों के सामने आने वाली चुनौतियों के विषय पर बातचीत कर रहा था, जानकारी जुटा रहा था। बातचीत की शुरुआत तो ठीक रही, लेकिन बातचीत खत्म होते-होते Gemini चैटबॉट ने छात्र को धमकाना शुरू कर दिया, जिससे छात्र बुरी तरह डर गया।

Google ने दी सफाई

यह घटना तब हुई जब Google लगातार यह दोहराता रहा है कि उसके Gemini चैटबॉट में कई सेफ्टी फिल्टर हैं, जिससे वह किसी भी तरह की नफरत, हिंसा या खतरनाक बातचीत से दूर रहता है। Gemini ने स्पष्ट करते हुए कहा है कि Large Language Models कई बार अर्थहीन जवाब दे सकते हैं। यह एक ऐसा ही उदाहरण है। Gemini के इस जवाब ने उसकी नीतियों का उल्लंघन किया है। भविष्य में ऐसा न हो, इसके लिए कार्रवाई की जा रही है।”

AI कंपनियों का कहना है कि उनके Large Language Models गलतियां कर सकते हैं और उन्हें सुधारने के प्रयास चल रहे हैं। एक नए अध्ययन के अनुसार, आर्टिफिशियल इंटेलिजेंस सिस्टम उन्हें नियंत्रण में रखने के लिए डिजाइन किए गए सुरक्षा उपायों को दरकिनार कर सकते हैं।

सामने आई चौंकाने वाली बात

इस साल जनवरी में AI सुरक्षा और रिसर्च से जुड़ी कंपनी Anthropic के वैज्ञानिकों की एक टीम ने एक अध्ययन किया है। इस टीम ने AI के कई बड़े लैंग्वेज मॉडल बनाए, जिन्हें परेशानी पैदा करने के लिए डिजाइन किया गया था। इसके बाद कई तकनीकों ने उनके व्यवहार को सही करने की कोशिश की, ताकि वे कोई परेशानी पैदा न कर सकें या धोखा न दे सकें, लेकिन उन्होंने पाया कि इन Large Language Models ने अपना विद्रोही रवैया बनाए रखा। इस अध्ययन के प्रमुख इवान हुबिंगर ने कहा है कि इस अध्ययन का नतीजा यह है कि अगर AI सिस्टम धोखा देने लगे तो मौजूदा तकनीक से उन्हें नियंत्रित करना बहुत मुश्किल हो जाएगा।”

लोकतंत्र के लिए भी खतरा है AI

प्रसिद्ध इतिहासकार और दार्शनिक युवाल नोआ हरारी का मानना ​​है कि AI दुनिया के लोकतंत्र के लिए खतरा है। इसलिए ऐसी ताकत न लाएं, जिसे आप नियंत्रित न कर सकें। वह कहते हैं कि परमाणु बम खुद तय नहीं कर सकते कि किसे मारना है,  वे खुद ही ज्यादा शक्तिशाली बम बना सकते हैं। इसकी तुलना में AI से चलने वाले ड्रोन तय कर सकते हैं कि किसे मारना है। AI नए बम डिजाइन बना सकता है, अभूतपूर्व सैन्य रणनीति बना सकता है और बेहतर AI बना सकता है। AI एक उपकरण नहीं बल्कि एक एजेंट है। यह साफ है कि AI जितना उपयोगी है, उतना ही खतरनाक भी है।

AI का इस्तेमाल करते समय सावधानी बरतें

  • AI इंसान नहीं है यह एक मशीन है इसलिए इसके आउटपुट या नतीजों पर भरोसा करने से पहले, उन्हें खुद जांच लें। आपको यह मानकर चलना चाहिए कि AI गलतिया कर सकता है।
  • AI टूल को अपनी निजी जानकारी जैसे पासवर्ड, बैंक डिटेल, निजी फोटो देने से बचें। अगर संवेदनशील डेटा लीक हो जाता है, तो आपको नुकसान होने की संभावना है।
  • किसी को नुकसान पहुंचाने या किसी को धोखा देने के लिए AI का इस्तेमाल न करें।

Ragini Sinha

5 साल के अनुभव के साथ मैंने मीडिया जगत में कंटेट राइटर, सीनियर कंटेंट राइटर, मीडिया एनालिस्ट और प्रोग्राम प्रोड्यूसर के तौर पर काम किया है। बिहार चुनाव और दिल्ली चुनाव को मैंने कवर किया है। अपने काम को लेकर मुझे पुरस्कार से सम्मानित भी किया जा चुका है। काम को जल्दी सीखने की कला मुझे औरों से अलग बनाती है।

Leave a Reply

Your email address will not be published.

Previous Story

Alert! मुझसे दोस्ती करोगी… क्लिक करते ही हो जाएंगे कंगाला

Next Story

OpenAI ला रहा खुद का ब्राउजर, chrome को देगा टक्कर

Latest from Tech News

Don't Miss