Google AI Warning: AI को लेकर दुनियाभर में बहस तेज है। अब Google के पूर्व CEO एरिक श्मिट ने भी इस तकनीक को लेकर गंभीर चेतावनी दी है। उनका कहना है कि AI चैटबॉट्स को हैक किया जा सकता है और अगर ऐसा हुआ तो ये चैटबॉट्स गलत हाथों में जाकर टेक इंडस्ट्री और समाज दोनों के लिए बड़ा खतरा बन सकते हैं।
Google के पूर्व CEO के मुताबिक, AI चैटबॉट्स पर नियंत्रण न रखा गया तो यह तकनीक साइबर हथियार बन सकती है और समाज में भारी नुकसान पहुंचा सकती है।
AI सुरक्षा को लेकर चिंता
एरिक श्मिट ने हाल ही में लंदन में हुए एक टेक कॉन्फ्रेंस में कहा कि AI मॉडल्स को हैक करके उन पर कब्जा किया जा सकता है। उन्होंने बताया कि जब AI मॉडल्स को ट्रेन किया जाता है तो उन्हें ढेर सारी जानकारी और पैटर्न सिखाए जाते हैं। अगर हैकर्स इस ट्रेनिंग सिस्टम को अपने नियंत्रण में ले लें, तो वे मॉडल को गलत दिशा में प्रशिक्षित कर सकते हैं।
श्मिट ने यह भी कहा कि अब समय आ गया है जब सभी बड़ी टेक कंपनियों को अपने AI सिस्टम्स की सुरक्षा की जिम्मेदारी खुद लेनी होगी। अगर कोई हैकर किसी कंपनी के AI मॉडल को रिवर्स इंजीनियरिंग करके बदल देता है, तो इसकी जिम्मेदारी उसी कंपनी की होगी जिसने मॉडल तैयार किया है।
READ MORE: हिंदी बोलने वालों के लिए खुशखबरी! Meta प्रति घंटे दे रही 4,500, जानें कैसे
चैटबॉट्स बन सकते हैं साइबर हथियार
श्मिट ने चेतावनी दी कि आज के कई एडवांस AI चैटबॉट्स कोडिंग, बग डिटेक्शन और डेटा विश्लेषण के साथ-साथ हैकिंग या जेलब्रेक अटैक जैसे काम भी सीख सकते हैं। कई विशेषज्ञ पहले भी कह चुके हैं कि अगर इन मॉडलों पर सही सुरक्षा नहीं रखी गई, तो ये भविष्य में साइबर युद्ध के हथियार बन सकते हैं। इन जनरेटिव AI सिस्टम्स में खुद का कोड फिर से लिखने की क्षमता होती है। अगर इन्हें गलत कोड या वायरस के साथ संक्रमित कर दिया जाए, तो यह सिस्टम अपने आप सीखकर बड़ी डिजिटल तबाही मचा सकता है।
READ MORE: Apple ने खारिज किया दावा: OpenAI से पार्टनरशिप करना गलत नहीं
पहले भी दी गई थी चेतावनी
AI के गॉडफादर जेफ्री हिंटन पहले ही कह चुके हैं कि अगर AI चैटबॉट्स पर नियंत्रण नहीं रखा गया तो यह तकनीक इंसानों के लिए भविष्य में खतरनाक साबित हो सकती है। वहीं, श्मिट ने कहा कि फिलहाल, AI इंसानों जितना बुद्धिमान नहीं है, लेकिन तेजी से विकसित होती यह तकनीक आने वाले समय में मानवता के लिए बड़ा खतरा बन सकती है अगर इसे नियंत्रित न किया गया।