AI बना 'हॉलीवुड हीरो' और महिला से उड़ गए 11 लाख! जानिए कैसे ठगों ने रचा हाईटेक प्यार का जाल

ऑनलाइन ठगी अब एक नए, हाईटेक मोड़ पर पहुंच चुकी है. अब ठग केवल नकली कॉल या ईमेल से नहीं, बल्कि AI (आर्टिफिशियल इंटेलिजेंस) की मदद से सीधे लोगों के दिलों में जगह बनाकर उन्हें लूट रहे हैं. हाल ही में अर्जेंटीना से सामने आई एक घटना ने यह साबित कर दिया है कि AI का गलत इस्तेमाल कितना खतरनाक हो सकता है. यह मामला एक महिला से जुड़ा है, जो सोच रही थी कि वह हॉलीवुड सुपरस्टार जॉर्ज क्लूनी से बात कर रही है. लेकिन असलियत कुछ और ही निकली वो शख्स असली क्लूनी नहीं, बल्कि उसका AI से बना नकली रूप था. जब AI बना 'हॉलीवुड स्टार' महिला ने फेसबुक पर एक ऐसा अकाउंट देखा जो खुद को जॉर्ज क्लूनी बताता था. प्रोफाइल और वीडियो इतने असली लगे कि किसी को भी शक न हो. महिला ने उस प्रोफाइल से बातचीत शुरू की और करीब छह हफ्तों तक ‘क्लूनी’ से चैट करती रहीं. AI से बनाए गए वीडियो में ‘क्लूनी’ न केवल बात करता दिखा, बल्कि मुस्कुराता, पलकें झपकाता और प्यार भरी बातें करता नजर आया. ठगों ने AI के जरिए न केवल चेहरा, बल्कि जॉर्ज क्लूनी की आवाज और हावभाव भी हूबहू कॉपी किए. कैसे की गई ठगी?महिला से पहले दोस्ती की गई, फिर भरोसा जीता गया. 'क्लूनी' के नकली अवतार ने कहा कि वह अपनी पत्नी से अलग हो रहा है और महिला के साथ एक नया रिश्ता शुरू करना चाहता है. धीरे-धीरे भावनाओं का खेल शुरू हुआ. 'क्लूनी' ने बताया कि उसका फैन क्लब कार्ड काम नहीं कर रहा, और उसे कुछ रकम की जरूरत है. साथ ही यह भी कहा कि वह पैसे वापस कर देगा और महिला को एक अच्छी नौकरी भी दिलवाएगा. इस भरोसे में आकर महिला ने 10,000 पाउंड यानी करीब 11.3 लाख रुपये ठगों के कहे अनुसार ट्रांसफर कर दिए. पहले भी हो चुके हैं ऐसे मामलेऐसा ही एक मामला जनवरी में फ्रांस में सामने आया था, जब एक महिला से नकली ब्रैड पिट बनकर लगभग 7.9 करोड़ रुपये ठग लिए गए थे. उस मामले में भी डीपफेक तकनीक का इस्तेमाल हुआ था. क्या है डीपफेक?डीपफेक तकनीक AI पर आधारित एक ऐसी प्रणाली है, जिससे किसी भी व्यक्ति के चेहरे और आवाज को हूबहू कॉपी किया जा सकता है. खासकर फिल्मी सितारों और सेलिब्रिटीज़ के साथ ऐसा करना आसान होता है क्योंकि उनके वीडियो, फोटो और आवाज के सैंपल इंटरनेट पर भरपूर उपलब्ध होते हैं. एक्सपर्ट्स की चेतावनीतकनीकी विशेषज्ञों का मानना है कि ये सिर्फ शुरुआत है। आने वाले समय में इस तरह की ठगी और ज्यादा आम हो सकती है. AI के सहारे धोखाधड़ी करने वाले अब आम लोगों को भी बड़ी आसानी से अपना निशाना बना सकते हैं. क्या करें ताकि फंसें नहीं? कभी भी किसी सोशल मीडिया प्रोफाइल पर आंख बंद कर भरोसा न करें, चाहे वो कितना भी असली क्यों न लगे. पैसे भेजने से पहले किसी भी ऑनलाइन रिश्ते की सच्चाई की जांच जरूर करें. वीडियो या कॉल देखकर धोखा न खाएं, आज की तकनीक में देखना ही विश्वास करना अब गलत साबित हो चुका है. संदिग्ध गतिविधियों की तुरंत सूचना साइबर क्राइम सेल को दें.

May 15, 2025 - 16:30
 0
AI बना 'हॉलीवुड हीरो' और महिला से उड़ गए 11 लाख! जानिए कैसे ठगों ने रचा हाईटेक प्यार का जाल

ऑनलाइन ठगी अब एक नए, हाईटेक मोड़ पर पहुंच चुकी है. अब ठग केवल नकली कॉल या ईमेल से नहीं, बल्कि AI (आर्टिफिशियल इंटेलिजेंस) की मदद से सीधे लोगों के दिलों में जगह बनाकर उन्हें लूट रहे हैं. हाल ही में अर्जेंटीना से सामने आई एक घटना ने यह साबित कर दिया है कि AI का गलत इस्तेमाल कितना खतरनाक हो सकता है.

यह मामला एक महिला से जुड़ा है, जो सोच रही थी कि वह हॉलीवुड सुपरस्टार जॉर्ज क्लूनी से बात कर रही है. लेकिन असलियत कुछ और ही निकली वो शख्स असली क्लूनी नहीं, बल्कि उसका AI से बना नकली रूप था.

जब AI बना 'हॉलीवुड स्टार'

महिला ने फेसबुक पर एक ऐसा अकाउंट देखा जो खुद को जॉर्ज क्लूनी बताता था. प्रोफाइल और वीडियो इतने असली लगे कि किसी को भी शक न हो. महिला ने उस प्रोफाइल से बातचीत शुरू की और करीब छह हफ्तों तक ‘क्लूनी’ से चैट करती रहीं.

AI से बनाए गए वीडियो में ‘क्लूनी’ न केवल बात करता दिखा, बल्कि मुस्कुराता, पलकें झपकाता और प्यार भरी बातें करता नजर आया. ठगों ने AI के जरिए न केवल चेहरा, बल्कि जॉर्ज क्लूनी की आवाज और हावभाव भी हूबहू कॉपी किए.

कैसे की गई ठगी?
महिला से पहले दोस्ती की गई, फिर भरोसा जीता गया. 'क्लूनी' के नकली अवतार ने कहा कि वह अपनी पत्नी से अलग हो रहा है और महिला के साथ एक नया रिश्ता शुरू करना चाहता है.

धीरे-धीरे भावनाओं का खेल शुरू हुआ. 'क्लूनी' ने बताया कि उसका फैन क्लब कार्ड काम नहीं कर रहा, और उसे कुछ रकम की जरूरत है. साथ ही यह भी कहा कि वह पैसे वापस कर देगा और महिला को एक अच्छी नौकरी भी दिलवाएगा.

इस भरोसे में आकर महिला ने 10,000 पाउंड यानी करीब 11.3 लाख रुपये ठगों के कहे अनुसार ट्रांसफर कर दिए.

पहले भी हो चुके हैं ऐसे मामले
ऐसा ही एक मामला जनवरी में फ्रांस में सामने आया था, जब एक महिला से नकली ब्रैड पिट बनकर लगभग 7.9 करोड़ रुपये ठग लिए गए थे. उस मामले में भी डीपफेक तकनीक का इस्तेमाल हुआ था.

क्या है डीपफेक?
डीपफेक तकनीक AI पर आधारित एक ऐसी प्रणाली है, जिससे किसी भी व्यक्ति के चेहरे और आवाज को हूबहू कॉपी किया जा सकता है. खासकर फिल्मी सितारों और सेलिब्रिटीज़ के साथ ऐसा करना आसान होता है क्योंकि उनके वीडियो, फोटो और आवाज के सैंपल इंटरनेट पर भरपूर उपलब्ध होते हैं.

एक्सपर्ट्स की चेतावनी
तकनीकी विशेषज्ञों का मानना है कि ये सिर्फ शुरुआत है। आने वाले समय में इस तरह की ठगी और ज्यादा आम हो सकती है. AI के सहारे धोखाधड़ी करने वाले अब आम लोगों को भी बड़ी आसानी से अपना निशाना बना सकते हैं.

क्या करें ताकि फंसें नहीं?

  • कभी भी किसी सोशल मीडिया प्रोफाइल पर आंख बंद कर भरोसा न करें, चाहे वो कितना भी असली क्यों न लगे.
  • पैसे भेजने से पहले किसी भी ऑनलाइन रिश्ते की सच्चाई की जांच जरूर करें.
  • वीडियो या कॉल देखकर धोखा न खाएं, आज की तकनीक में देखना ही विश्वास करना अब गलत साबित हो चुका है.

संदिग्ध गतिविधियों की तुरंत सूचना साइबर क्राइम सेल को दें.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow