AI बना 'हॉलीवुड हीरो' और महिला से उड़ गए 11 लाख! जानिए कैसे ठगों ने रचा हाईटेक प्यार का जाल
ऑनलाइन ठगी अब एक नए, हाईटेक मोड़ पर पहुंच चुकी है. अब ठग केवल नकली कॉल या ईमेल से नहीं, बल्कि AI (आर्टिफिशियल इंटेलिजेंस) की मदद से सीधे लोगों के दिलों में जगह बनाकर उन्हें लूट रहे हैं. हाल ही में अर्जेंटीना से सामने आई एक घटना ने यह साबित कर दिया है कि AI का गलत इस्तेमाल कितना खतरनाक हो सकता है. यह मामला एक महिला से जुड़ा है, जो सोच रही थी कि वह हॉलीवुड सुपरस्टार जॉर्ज क्लूनी से बात कर रही है. लेकिन असलियत कुछ और ही निकली वो शख्स असली क्लूनी नहीं, बल्कि उसका AI से बना नकली रूप था. जब AI बना 'हॉलीवुड स्टार' महिला ने फेसबुक पर एक ऐसा अकाउंट देखा जो खुद को जॉर्ज क्लूनी बताता था. प्रोफाइल और वीडियो इतने असली लगे कि किसी को भी शक न हो. महिला ने उस प्रोफाइल से बातचीत शुरू की और करीब छह हफ्तों तक ‘क्लूनी’ से चैट करती रहीं. AI से बनाए गए वीडियो में ‘क्लूनी’ न केवल बात करता दिखा, बल्कि मुस्कुराता, पलकें झपकाता और प्यार भरी बातें करता नजर आया. ठगों ने AI के जरिए न केवल चेहरा, बल्कि जॉर्ज क्लूनी की आवाज और हावभाव भी हूबहू कॉपी किए. कैसे की गई ठगी?महिला से पहले दोस्ती की गई, फिर भरोसा जीता गया. 'क्लूनी' के नकली अवतार ने कहा कि वह अपनी पत्नी से अलग हो रहा है और महिला के साथ एक नया रिश्ता शुरू करना चाहता है. धीरे-धीरे भावनाओं का खेल शुरू हुआ. 'क्लूनी' ने बताया कि उसका फैन क्लब कार्ड काम नहीं कर रहा, और उसे कुछ रकम की जरूरत है. साथ ही यह भी कहा कि वह पैसे वापस कर देगा और महिला को एक अच्छी नौकरी भी दिलवाएगा. इस भरोसे में आकर महिला ने 10,000 पाउंड यानी करीब 11.3 लाख रुपये ठगों के कहे अनुसार ट्रांसफर कर दिए. पहले भी हो चुके हैं ऐसे मामलेऐसा ही एक मामला जनवरी में फ्रांस में सामने आया था, जब एक महिला से नकली ब्रैड पिट बनकर लगभग 7.9 करोड़ रुपये ठग लिए गए थे. उस मामले में भी डीपफेक तकनीक का इस्तेमाल हुआ था. क्या है डीपफेक?डीपफेक तकनीक AI पर आधारित एक ऐसी प्रणाली है, जिससे किसी भी व्यक्ति के चेहरे और आवाज को हूबहू कॉपी किया जा सकता है. खासकर फिल्मी सितारों और सेलिब्रिटीज़ के साथ ऐसा करना आसान होता है क्योंकि उनके वीडियो, फोटो और आवाज के सैंपल इंटरनेट पर भरपूर उपलब्ध होते हैं. एक्सपर्ट्स की चेतावनीतकनीकी विशेषज्ञों का मानना है कि ये सिर्फ शुरुआत है। आने वाले समय में इस तरह की ठगी और ज्यादा आम हो सकती है. AI के सहारे धोखाधड़ी करने वाले अब आम लोगों को भी बड़ी आसानी से अपना निशाना बना सकते हैं. क्या करें ताकि फंसें नहीं? कभी भी किसी सोशल मीडिया प्रोफाइल पर आंख बंद कर भरोसा न करें, चाहे वो कितना भी असली क्यों न लगे. पैसे भेजने से पहले किसी भी ऑनलाइन रिश्ते की सच्चाई की जांच जरूर करें. वीडियो या कॉल देखकर धोखा न खाएं, आज की तकनीक में देखना ही विश्वास करना अब गलत साबित हो चुका है. संदिग्ध गतिविधियों की तुरंत सूचना साइबर क्राइम सेल को दें.

ऑनलाइन ठगी अब एक नए, हाईटेक मोड़ पर पहुंच चुकी है. अब ठग केवल नकली कॉल या ईमेल से नहीं, बल्कि AI (आर्टिफिशियल इंटेलिजेंस) की मदद से सीधे लोगों के दिलों में जगह बनाकर उन्हें लूट रहे हैं. हाल ही में अर्जेंटीना से सामने आई एक घटना ने यह साबित कर दिया है कि AI का गलत इस्तेमाल कितना खतरनाक हो सकता है.
यह मामला एक महिला से जुड़ा है, जो सोच रही थी कि वह हॉलीवुड सुपरस्टार जॉर्ज क्लूनी से बात कर रही है. लेकिन असलियत कुछ और ही निकली वो शख्स असली क्लूनी नहीं, बल्कि उसका AI से बना नकली रूप था.
जब AI बना 'हॉलीवुड स्टार'
महिला ने फेसबुक पर एक ऐसा अकाउंट देखा जो खुद को जॉर्ज क्लूनी बताता था. प्रोफाइल और वीडियो इतने असली लगे कि किसी को भी शक न हो. महिला ने उस प्रोफाइल से बातचीत शुरू की और करीब छह हफ्तों तक ‘क्लूनी’ से चैट करती रहीं.
AI से बनाए गए वीडियो में ‘क्लूनी’ न केवल बात करता दिखा, बल्कि मुस्कुराता, पलकें झपकाता और प्यार भरी बातें करता नजर आया. ठगों ने AI के जरिए न केवल चेहरा, बल्कि जॉर्ज क्लूनी की आवाज और हावभाव भी हूबहू कॉपी किए.
कैसे की गई ठगी?
महिला से पहले दोस्ती की गई, फिर भरोसा जीता गया. 'क्लूनी' के नकली अवतार ने कहा कि वह अपनी पत्नी से अलग हो रहा है और महिला के साथ एक नया रिश्ता शुरू करना चाहता है.
धीरे-धीरे भावनाओं का खेल शुरू हुआ. 'क्लूनी' ने बताया कि उसका फैन क्लब कार्ड काम नहीं कर रहा, और उसे कुछ रकम की जरूरत है. साथ ही यह भी कहा कि वह पैसे वापस कर देगा और महिला को एक अच्छी नौकरी भी दिलवाएगा.
इस भरोसे में आकर महिला ने 10,000 पाउंड यानी करीब 11.3 लाख रुपये ठगों के कहे अनुसार ट्रांसफर कर दिए.
पहले भी हो चुके हैं ऐसे मामले
ऐसा ही एक मामला जनवरी में फ्रांस में सामने आया था, जब एक महिला से नकली ब्रैड पिट बनकर लगभग 7.9 करोड़ रुपये ठग लिए गए थे. उस मामले में भी डीपफेक तकनीक का इस्तेमाल हुआ था.
क्या है डीपफेक?
डीपफेक तकनीक AI पर आधारित एक ऐसी प्रणाली है, जिससे किसी भी व्यक्ति के चेहरे और आवाज को हूबहू कॉपी किया जा सकता है. खासकर फिल्मी सितारों और सेलिब्रिटीज़ के साथ ऐसा करना आसान होता है क्योंकि उनके वीडियो, फोटो और आवाज के सैंपल इंटरनेट पर भरपूर उपलब्ध होते हैं.
एक्सपर्ट्स की चेतावनी
तकनीकी विशेषज्ञों का मानना है कि ये सिर्फ शुरुआत है। आने वाले समय में इस तरह की ठगी और ज्यादा आम हो सकती है. AI के सहारे धोखाधड़ी करने वाले अब आम लोगों को भी बड़ी आसानी से अपना निशाना बना सकते हैं.
क्या करें ताकि फंसें नहीं?
- कभी भी किसी सोशल मीडिया प्रोफाइल पर आंख बंद कर भरोसा न करें, चाहे वो कितना भी असली क्यों न लगे.
- पैसे भेजने से पहले किसी भी ऑनलाइन रिश्ते की सच्चाई की जांच जरूर करें.
- वीडियो या कॉल देखकर धोखा न खाएं, आज की तकनीक में देखना ही विश्वास करना अब गलत साबित हो चुका है.
संदिग्ध गतिविधियों की तुरंत सूचना साइबर क्राइम सेल को दें.
What's Your Reaction?






