आजकल Google Gemini, ChatGPT जैसे AI टूल्स का इस्तेमाल काफी ज्यादा बढ़ गया है। ये कई काम आसान कर देते हैं, लेकिन यह इंसानों के लिए खतरा भी हो सकते हैं।
Artificial intelligence : आर्टिफिशियल इंटेलिजेंस की आज तकनीक की दुनिया में सबसे ज्यादा चर्चा होती है। AI को इंसानी जीवन में क्रांतिकारी बदलाव के शुरुआती संकेत के तौर पर देखा जा रहा है, लेकिन क्या इंसानों की बनाई मशीन इंसानों पर हावी हो सकती है ? ये सवाल इसलिए पूछा जा रहा है क्योंकि हर रोज ऐसे उदाहरण सामने आ रहे हैं जिनमें ये साफ हो रहा है कि अगर AI बेकाबू से बाहर हो गया तो ये इंसानों के लिए बड़ी समस्या बन जाएगा।
क्या है AI
AI वो तकनीक है जो मशीनों में इंसान जैसा दिमाग लाती है। कोडिंग के जरिए मशीनों में इंसान जैसी इंटेलिजेंस विकसित की जाती है, ताकि वो इंसानों की तरह सीख सकें, खुद से फैसले ले सकें। कमांड का पालन कर सकें और मल्टीटास्किंग कर सकें।
अमेरिका के मिशिगन में एक ग्रेजुएट छात्र ने अपने होमवर्क के लिए Google के Gemini चैटबॉट की हेल्प ली। वह AI चैटबॉट से बुजुर्गों के सामने आने वाली चुनौतियों के विषय पर बातचीत कर रहा था, जानकारी जुटा रहा था। बातचीत की शुरुआत तो ठीक रही, लेकिन बातचीत खत्म होते-होते Gemini चैटबॉट ने छात्र को धमकाना शुरू कर दिया, जिससे छात्र बुरी तरह डर गया।
Google ने दी सफाई
यह घटना तब हुई जब Google लगातार यह दोहराता रहा है कि उसके Gemini चैटबॉट में कई सेफ्टी फिल्टर हैं, जिससे वह किसी भी तरह की नफरत, हिंसा या खतरनाक बातचीत से दूर रहता है। Gemini ने स्पष्ट करते हुए कहा है कि Large Language Models कई बार अर्थहीन जवाब दे सकते हैं। यह एक ऐसा ही उदाहरण है। Gemini के इस जवाब ने उसकी नीतियों का उल्लंघन किया है। भविष्य में ऐसा न हो, इसके लिए कार्रवाई की जा रही है।”
AI कंपनियों का कहना है कि उनके Large Language Models गलतियां कर सकते हैं और उन्हें सुधारने के प्रयास चल रहे हैं। एक नए अध्ययन के अनुसार, आर्टिफिशियल इंटेलिजेंस सिस्टम उन्हें नियंत्रण में रखने के लिए डिजाइन किए गए सुरक्षा उपायों को दरकिनार कर सकते हैं।
सामने आई चौंकाने वाली बात
इस साल जनवरी में AI सुरक्षा और रिसर्च से जुड़ी कंपनी Anthropic के वैज्ञानिकों की एक टीम ने एक अध्ययन किया है। इस टीम ने AI के कई बड़े लैंग्वेज मॉडल बनाए, जिन्हें परेशानी पैदा करने के लिए डिजाइन किया गया था। इसके बाद कई तकनीकों ने उनके व्यवहार को सही करने की कोशिश की, ताकि वे कोई परेशानी पैदा न कर सकें या धोखा न दे सकें, लेकिन उन्होंने पाया कि इन Large Language Models ने अपना विद्रोही रवैया बनाए रखा। इस अध्ययन के प्रमुख इवान हुबिंगर ने कहा है कि इस अध्ययन का नतीजा यह है कि अगर AI सिस्टम धोखा देने लगे तो मौजूदा तकनीक से उन्हें नियंत्रित करना बहुत मुश्किल हो जाएगा।”
लोकतंत्र के लिए भी खतरा है AI
प्रसिद्ध इतिहासकार और दार्शनिक युवाल नोआ हरारी का मानना है कि AI दुनिया के लोकतंत्र के लिए खतरा है। इसलिए ऐसी ताकत न लाएं, जिसे आप नियंत्रित न कर सकें। वह कहते हैं कि परमाणु बम खुद तय नहीं कर सकते कि किसे मारना है, वे खुद ही ज्यादा शक्तिशाली बम बना सकते हैं। इसकी तुलना में AI से चलने वाले ड्रोन तय कर सकते हैं कि किसे मारना है। AI नए बम डिजाइन बना सकता है, अभूतपूर्व सैन्य रणनीति बना सकता है और बेहतर AI बना सकता है। AI एक उपकरण नहीं बल्कि एक एजेंट है। यह साफ है कि AI जितना उपयोगी है, उतना ही खतरनाक भी है।
AI का इस्तेमाल करते समय सावधानी बरतें
- AI इंसान नहीं है यह एक मशीन है इसलिए इसके आउटपुट या नतीजों पर भरोसा करने से पहले, उन्हें खुद जांच लें। आपको यह मानकर चलना चाहिए कि AI गलतिया कर सकता है।
- AI टूल को अपनी निजी जानकारी जैसे पासवर्ड, बैंक डिटेल, निजी फोटो देने से बचें। अगर संवेदनशील डेटा लीक हो जाता है, तो आपको नुकसान होने की संभावना है।
- किसी को नुकसान पहुंचाने या किसी को धोखा देने के लिए AI का इस्तेमाल न करें।