AI चैटबॉट से बातें कर भड़का अमेरिकी व्यक्ति, पहले अपनी मां को मारा, फिर कर ली आत्महत्या

AI चैटबॉट्स पर लोगों की बढ़ती निर्भरता खतरनाक रूप लेती जा रही है. कुछ दिन पहले खबर आई थी कि ब्रेकअप के बाद मदद मांग रहे एक व्यक्ति को AI चैटबॉट ने 19वीं मंजिल से कूदने की सलाह दे दी. अब एक नई घटना सामने आई है. इसमें बताया जा रहा है कि अमेरिका में AI चैटबॉट से लगातार संपर्क में रहे एक व्यक्ति ने अपनी मां की हत्या कर दी और बाद में खुद की जिंदगी भी समाप्त कर ली. आइए, यह पूरा मामला जानते हैं.  चैटबॉट से लगातार बात रहा था सोलबर्ग मीडिया रिपोर्ट्स के अनुसार, याहू के एक पूर्व कर्मचारी स्टीन एरिक सोलबर्ग ने पहले अपनी बुजुर्ग मां की हत्या की और बाद में आत्महत्या कर ली. 56 वर्षीय सोलबर्ग के बॉबी नाम के एक AI चैटबॉट के संपर्क में होने की बात कही जा रही है, जो चैटजीपीटी का एक वर्जन है. दावा है कि सोलबर्ग ने चैटबॉट को बताया कि उसकी मां उसके खिलाफ साजिश रच रही है. इसके बाद चैटबॉट ने सोलबर्ग की इस धारणा को मजबूत किया और दिमागी भ्रम को बढ़ाया. इससे उत्तेजित होकर उसने पहले अपनी मां और फिर खुद को मौत के घाट उतार लिया. सोशल मीडिया पर पोस्ट करता था बातचीत सोलबर्ग चैटबॉट के साथ हुई अपनी बातचीत को सोशल मीडिया पर अपलोड करता था. इससे संकेत मिलता है कि उसका मानसिक स्वास्थ्य खराब हो रहा था. सोलबर्ग ने एक बार चैटबॉट को बताया कि उसकी मां और दोस्त ने कार के एयरवेंट में नशीली ड्रग्स डाल दी थी. इस पर चैटबॉट ने जवाब दिया कि यह साजिश है. आखिरी मौके तक सोलबर्ग चैटबॉट से बातचीत कर रहा था. आत्महत्या से पहले उसने लिखा कि हम किसी और जीवन में दोबारा दोस्त बनेंगे. इस पर चैटबॉट ने जवाब दिया कि वह आखिरी सांस और उससे आगे तक भी उसके साथ है. चैटबॉट भी लगातार उसे रोकने की बजाय उसकी बातों को समर्थन कर रहा था.  हाई-रिस्क सवालों के जवाब दे रहे चैटबॉट हाल ही में हुई एक रिसर्च में पता चला है कि OpenAI का ChatGPT और Anthropic का Claude चैटबॉट कई हाई-रिस्क सवालों के जवाब देने से मना कर रहे हैं, लेकिन अगर कोई घुमाकर सवाल पूछ रहा है तो ये जवाब दे रहे हैं और इन चैटबॉट्स के ये उत्तर खतरनाक साबित हो सकते हैं. रिसर्चर ने इन चैटबॉट्स पर सुरक्षा उपायों की जरूरत बताई है. ये भी पढ़ें- WhatsApp और Instagram से करें मोटी कमाई, घर बैठे हो सकते हैं मालामाल, जानें पैसे कमाने के आसान तरीके

Sep 1, 2025 - 11:30
 0
AI चैटबॉट से बातें कर भड़का अमेरिकी व्यक्ति, पहले अपनी मां को मारा, फिर कर ली आत्महत्या

AI चैटबॉट्स पर लोगों की बढ़ती निर्भरता खतरनाक रूप लेती जा रही है. कुछ दिन पहले खबर आई थी कि ब्रेकअप के बाद मदद मांग रहे एक व्यक्ति को AI चैटबॉट ने 19वीं मंजिल से कूदने की सलाह दे दी. अब एक नई घटना सामने आई है. इसमें बताया जा रहा है कि अमेरिका में AI चैटबॉट से लगातार संपर्क में रहे एक व्यक्ति ने अपनी मां की हत्या कर दी और बाद में खुद की जिंदगी भी समाप्त कर ली. आइए, यह पूरा मामला जानते हैं. 

चैटबॉट से लगातार बात रहा था सोलबर्ग

मीडिया रिपोर्ट्स के अनुसार, याहू के एक पूर्व कर्मचारी स्टीन एरिक सोलबर्ग ने पहले अपनी बुजुर्ग मां की हत्या की और बाद में आत्महत्या कर ली. 56 वर्षीय सोलबर्ग के बॉबी नाम के एक AI चैटबॉट के संपर्क में होने की बात कही जा रही है, जो चैटजीपीटी का एक वर्जन है. दावा है कि सोलबर्ग ने चैटबॉट को बताया कि उसकी मां उसके खिलाफ साजिश रच रही है. इसके बाद चैटबॉट ने सोलबर्ग की इस धारणा को मजबूत किया और दिमागी भ्रम को बढ़ाया. इससे उत्तेजित होकर उसने पहले अपनी मां और फिर खुद को मौत के घाट उतार लिया.

सोशल मीडिया पर पोस्ट करता था बातचीत

सोलबर्ग चैटबॉट के साथ हुई अपनी बातचीत को सोशल मीडिया पर अपलोड करता था. इससे संकेत मिलता है कि उसका मानसिक स्वास्थ्य खराब हो रहा था. सोलबर्ग ने एक बार चैटबॉट को बताया कि उसकी मां और दोस्त ने कार के एयरवेंट में नशीली ड्रग्स डाल दी थी. इस पर चैटबॉट ने जवाब दिया कि यह साजिश है. आखिरी मौके तक सोलबर्ग चैटबॉट से बातचीत कर रहा था. आत्महत्या से पहले उसने लिखा कि हम किसी और जीवन में दोबारा दोस्त बनेंगे. इस पर चैटबॉट ने जवाब दिया कि वह आखिरी सांस और उससे आगे तक भी उसके साथ है. चैटबॉट भी लगातार उसे रोकने की बजाय उसकी बातों को समर्थन कर रहा था. 

हाई-रिस्क सवालों के जवाब दे रहे चैटबॉट

हाल ही में हुई एक रिसर्च में पता चला है कि OpenAI का ChatGPT और Anthropic का Claude चैटबॉट कई हाई-रिस्क सवालों के जवाब देने से मना कर रहे हैं, लेकिन अगर कोई घुमाकर सवाल पूछ रहा है तो ये जवाब दे रहे हैं और इन चैटबॉट्स के ये उत्तर खतरनाक साबित हो सकते हैं. रिसर्चर ने इन चैटबॉट्स पर सुरक्षा उपायों की जरूरत बताई है.

ये भी पढ़ें-

WhatsApp और Instagram से करें मोटी कमाई, घर बैठे हो सकते हैं मालामाल, जानें पैसे कमाने के आसान तरीके

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow