Deepfake के Most Dangerous Celebrity लिस्ट में शामिल हुए ये फेमस सीतारे

Deepfake के Most Dangerous Celebrity लिस्ट में शामिल हुए ये फेमस सीतारे

5 mins read
1.1K views
November 15, 2025

McAfee 2025: साइबर सुरक्षा कंपनी McAfee ने 2025 के लिए अपनी वार्षिक रिपोर्ट Most Dangerous Celebrity: Deepfake Deception List जारी की है। इस रिपोर्ट में बताया गया है कि साइबर अपराधी किस तरह मशहूर हस्तियों के नाम और चेहरों का इस्तेमाल करके लोगों को धोखा देने वाले स्कैम चलाते हैं।

McAfee की Most Dangerous Celebrity लिस्ट 2025 में शाहरुख खान और अन्य सितारे Deepfake स्कैम में सबसे ज्यादा निशाने पर हैं।

शाहरुख खान सबसे ज्यादा निशाने पर

रिपोर्ट के अनुसार, शाहरुख खान इस लिस्ट में सबसे ज्यादा इस्तेमाल की जाने वाली हस्ती हैं। इसके बाद आलिया भट्ट और एलन मस्क का नाम आता है। प्रियंका चोपड़ा जोनास, क्रिस्टियानो रोनाल्डो, MrBeast, लियोनेल मेस्सी, टेलर स्विफ्ट, किम कार्दशियन और BTS के सदस्य भी इस लिस्ट में शामिल हैं। अपराधी इन सितारों के नाम और पहचान का उपयोग फेक Endorsements, Giveaways और Crypto या ट्रेडिंग स्कीम्स में करते हैं।

भारत में क्या है इसकी स्थिति ?

रिपोर्ट के अनुसार, भारत में 90% लोगों ने नकली या AI जनित सेलिब्रिटी Endorsements देखा है। इन धोखों की वजह से औसतन हर व्यक्ति को 34,500 का नुकसान हुआ है। वहीं, 60% भारतीयों ने इंटरनेट पर इन्फ्लुएंसर और ऑनलाइन पर्सनैलिटी के AI जनित या Deepfake कंटेंट देखा है।

READ MORE: AI Deepfake बढ़ा रहा राष्ट्रीय सुरक्षा का खतरा, जानें इसेसे बचाव के तरीके

Deepfake स्कैम का तरीका

अपराधी अब किसी व्यक्ति की केवल 3 सेकेंड की आवाज से बहुत ही यथार्थवादी Deepfake बना सकते हैं। ये Deepfake आमतौर पर स्किनकेयर प्रोडक्ट्स, Giveaways और Crypto या ट्रेडिंग स्कीम्स के लिए इस्तेमाल होते हैं। इसमें नकली मस्ट-हैव डिवाइस और सप्लीमेंट्स का प्रचार भी किया जाता है।

सुरक्षा और सावधानी

McAfee के सीनियर डायरेक्टर ऑफ इंजीनियरिंग प्रतीम मुखर्जी का कहना है कि Deepfake अब सिस्टम हैक नहीं कर रहे बल्कि लोगों का विश्वास हैक कर रहे हैं। यह तकनीक हमारी पसंदीदा हस्तियों की आवाज, चेहरा और हाव भाव आसानी से नकली बना सकती है। ऐसे देश में जहां लोग रोजाना सेलिब्रिटी और इन्फ्लुएंसर कंटेंट देखते हैं, ये फेक कंटेंट तेजी से फैल सकता है।

READ MORE: Crypto को लेकर ट्रंप ने क्या कहा? बताया Bitcoin पर खतरा

उन्होंने सुझाव दिया कि लोग टेक्स्ट, ईमेल और वीडियो में AI मैनिपुलेशन की जांच करने वाले टूल का इस्तेमाल करें, केवल ऑथराइज्ड स्टोर्स से खरीदारी करें और केवल वेरिफाइड अकाउंट्स पर भरोसा करें।

Ragini Sinha

Ragini Sinha Analytics Insight में कंटेंट एनालिस्ट के रूप में कार्यरत हैं। यहां वह स्मार्ट टेक्नोलॉजी, गेमिंग, OTT, क्रिप्टोकरेंसी, ट्रेंडिंग न्यूज और स्टॉक मार्केट जैसे विषयों पर काम करती हैं और जटिल जानकारी को सरल व प्रभावशाली कंटेंट में बदलने के लिए जानी जाती हैं।
मीडिया इंडस्ट्री में 7 सालों के अनुभव के साथ उन्होंने कंटेंट राइटर से लेकर सीनियर कंटेंट राइटर और प्रोग्राम प्रोड्यूसर तक का सफर तय किया है। उन्होंने बिहार चुनाव और दिल्ली चुनाव जैसे बड़े इवेंट्स को कवर करते हुए ग्राउंड रिपोर्टिंग और गहन विश्लेषण में मजबूत पकड़ बनाई है, जिसके लिए उन्हें पुरस्कार से सम्मानित भी किया गया है।

रागिनी ने Zee News, NewsTrack, ETV Bharat और Way2News जैसे प्रमुख मीडिया प्लेटफॉर्म्स के साथ काम किया है। उन्होंने Makhanlal Chaturvedi National University of Journalism and Communication से बैचलर डिग्री और Bharatiya Vidya Bhavan से Public Relation में अध्ययन किया है।

Grayscale Investments ने NYSE में फाइल किया पहला IPO
Previous Story

Grayscale Investments ने NYSE में फाइल किया पहला IPO

AI फेक फोटो-वीडियो बनाने वालों की खैर नहीं, इस देश ने बनाया कड़ा कानून
Next Story

AI फेक फोटो-वीडियो बनाने वालों की खैर नहीं, इस देश ने बनाया कड़ा कानून

Latest from Cybersecurity

Don't Miss