Anthropic ने खुलासा किया है कि उसका क्लाउड एआई साइबर अपराधियों के हाथों में पड़ गया और 17 संगठनों पर हमलों में उसका इस्तेमाल किया गया।
Cyber Crime Claude AI: AI कंपनी एंथ्रोपिक ने हाल ही में एक चौंकाने वाला खुलासा किया है। कंपनी ने बताया कि उसका जनरेटिव एआई असिस्टेंट क्लाउड साइबर अपराधियों के हाथों में पड़ गया है। गया और इसका इस्तेमाल बड़े पैमाने पर अपराध के लिए किया गया। यह अब तक का सबसे गंभीर मामला माना जा रहा है।
कैसे हुआ हमला?
रिपोर्ट में कहा गया कि एक हैकर ने Claude Code नामक एजेंटिक कोडिंग असिस्टेंट का उपयोग किया। इसकी मदद से उसने करीब 17 संगठनों को निशाना बनाया। इनमें हेल्थकेयर, इमरजेंसी सर्विसेज और सरकारी एजेंसियां शामिल थीं।
हैकर ने क्लाउड से नेटवर्क की जानकारी इकट्ठा की, पासवर्ड चुराए और सिस्टम में सेंध लगाई। इतना ही नहीं, क्लाउड ने उसे यह भी बताया कि कौन सा डेटा सबसे जरूरी है। और पहले किसे टारगेट करना चाहिए। इतना ही नहीं, Claude ने डराने वाले रैनसम नोट्स भी तैयार किए जिनसे पीड़ितों पर दबाव बनाया गया कि वे लाखों डॉलर फिरौती चुकाएं। कुछ संगठनों को धमकी दी गई कि उनका निजी डेटा लीक कर दिया जाएगा।
Anthropic की कार्रवाई
Anthropic ने समय रहते इस पूरे ऑपरेशन को पकड़ लिया। कंपनी ने संदिग्ध अकाउंट्स को ब्लॉक कर दिया। कानून प्रवर्तन एजेंसियों को सूचित किया और अपनी स्वचालित सुरक्षा प्रणाली को सक्रिय कर दिया और मजबूत किया। हालांकि, नए सुरक्षा उपायों की पूरी जानकारी साझा नहीं की गई है।
क्यों बढ़ रही है चिंता?
यह मामला ऐसे समय सामने आया है जब AI के साइबरक्राइम में इस्तेमाल को लेकर दुनिया भर में चिंता बढ़ रही है। पिछले साल OpenAI ने भी खुलासा किया था कि उसके टूल्स का दुरुपयोग चीनी और उत्तर कोरियाई हैकर्स ने किया था।
READ MORE: क्या ChatGPT को टक्कर दे पाएगा चीन का Wide Research? जानें इसकी खासियत
Meta का AI दांव, Apple के टॉप इंजीनियर्स को किया हायर
Anthropic ने चेतावनी दी है कि AI अपराधियों के लिए रास्ता आसान बना रहा है, जिससे छोटे समूह भी प्रोफेशनल हैकर की तरह काम कर सकते हैं। कंपनी ने कहा अपराधी तेजी से अपने आपको ढाल रहे हैं, हमें भी उसी गति से सुरक्षा व्यवस्था को मजबूत करना होगा।