AI चैटबॉट से बातें कर भड़का अमेरिकी व्यक्ति, पहले अपनी मां को मारा, फिर कर ली आत्महत्या
AI चैटबॉट्स पर लोगों की बढ़ती निर्भरता खतरनाक रूप लेती जा रही है. कुछ दिन पहले खबर आई थी कि ब्रेकअप के बाद मदद मांग रहे एक व्यक्ति को AI चैटबॉट ने 19वीं मंजिल से कूदने की सलाह दे दी. अब एक नई घटना सामने आई है. इसमें बताया जा रहा है कि अमेरिका में AI चैटबॉट से लगातार संपर्क में रहे एक व्यक्ति ने अपनी मां की हत्या कर दी और बाद में खुद की जिंदगी भी समाप्त कर ली. आइए, यह पूरा मामला जानते हैं. चैटबॉट से लगातार बात रहा था सोलबर्ग मीडिया रिपोर्ट्स के अनुसार, याहू के एक पूर्व कर्मचारी स्टीन एरिक सोलबर्ग ने पहले अपनी बुजुर्ग मां की हत्या की और बाद में आत्महत्या कर ली. 56 वर्षीय सोलबर्ग के बॉबी नाम के एक AI चैटबॉट के संपर्क में होने की बात कही जा रही है, जो चैटजीपीटी का एक वर्जन है. दावा है कि सोलबर्ग ने चैटबॉट को बताया कि उसकी मां उसके खिलाफ साजिश रच रही है. इसके बाद चैटबॉट ने सोलबर्ग की इस धारणा को मजबूत किया और दिमागी भ्रम को बढ़ाया. इससे उत्तेजित होकर उसने पहले अपनी मां और फिर खुद को मौत के घाट उतार लिया. सोशल मीडिया पर पोस्ट करता था बातचीत सोलबर्ग चैटबॉट के साथ हुई अपनी बातचीत को सोशल मीडिया पर अपलोड करता था. इससे संकेत मिलता है कि उसका मानसिक स्वास्थ्य खराब हो रहा था. सोलबर्ग ने एक बार चैटबॉट को बताया कि उसकी मां और दोस्त ने कार के एयरवेंट में नशीली ड्रग्स डाल दी थी. इस पर चैटबॉट ने जवाब दिया कि यह साजिश है. आखिरी मौके तक सोलबर्ग चैटबॉट से बातचीत कर रहा था. आत्महत्या से पहले उसने लिखा कि हम किसी और जीवन में दोबारा दोस्त बनेंगे. इस पर चैटबॉट ने जवाब दिया कि वह आखिरी सांस और उससे आगे तक भी उसके साथ है. चैटबॉट भी लगातार उसे रोकने की बजाय उसकी बातों को समर्थन कर रहा था. हाई-रिस्क सवालों के जवाब दे रहे चैटबॉट हाल ही में हुई एक रिसर्च में पता चला है कि OpenAI का ChatGPT और Anthropic का Claude चैटबॉट कई हाई-रिस्क सवालों के जवाब देने से मना कर रहे हैं, लेकिन अगर कोई घुमाकर सवाल पूछ रहा है तो ये जवाब दे रहे हैं और इन चैटबॉट्स के ये उत्तर खतरनाक साबित हो सकते हैं. रिसर्चर ने इन चैटबॉट्स पर सुरक्षा उपायों की जरूरत बताई है. ये भी पढ़ें- WhatsApp और Instagram से करें मोटी कमाई, घर बैठे हो सकते हैं मालामाल, जानें पैसे कमाने के आसान तरीके

AI चैटबॉट्स पर लोगों की बढ़ती निर्भरता खतरनाक रूप लेती जा रही है. कुछ दिन पहले खबर आई थी कि ब्रेकअप के बाद मदद मांग रहे एक व्यक्ति को AI चैटबॉट ने 19वीं मंजिल से कूदने की सलाह दे दी. अब एक नई घटना सामने आई है. इसमें बताया जा रहा है कि अमेरिका में AI चैटबॉट से लगातार संपर्क में रहे एक व्यक्ति ने अपनी मां की हत्या कर दी और बाद में खुद की जिंदगी भी समाप्त कर ली. आइए, यह पूरा मामला जानते हैं.
चैटबॉट से लगातार बात रहा था सोलबर्ग
मीडिया रिपोर्ट्स के अनुसार, याहू के एक पूर्व कर्मचारी स्टीन एरिक सोलबर्ग ने पहले अपनी बुजुर्ग मां की हत्या की और बाद में आत्महत्या कर ली. 56 वर्षीय सोलबर्ग के बॉबी नाम के एक AI चैटबॉट के संपर्क में होने की बात कही जा रही है, जो चैटजीपीटी का एक वर्जन है. दावा है कि सोलबर्ग ने चैटबॉट को बताया कि उसकी मां उसके खिलाफ साजिश रच रही है. इसके बाद चैटबॉट ने सोलबर्ग की इस धारणा को मजबूत किया और दिमागी भ्रम को बढ़ाया. इससे उत्तेजित होकर उसने पहले अपनी मां और फिर खुद को मौत के घाट उतार लिया.
सोशल मीडिया पर पोस्ट करता था बातचीत
सोलबर्ग चैटबॉट के साथ हुई अपनी बातचीत को सोशल मीडिया पर अपलोड करता था. इससे संकेत मिलता है कि उसका मानसिक स्वास्थ्य खराब हो रहा था. सोलबर्ग ने एक बार चैटबॉट को बताया कि उसकी मां और दोस्त ने कार के एयरवेंट में नशीली ड्रग्स डाल दी थी. इस पर चैटबॉट ने जवाब दिया कि यह साजिश है. आखिरी मौके तक सोलबर्ग चैटबॉट से बातचीत कर रहा था. आत्महत्या से पहले उसने लिखा कि हम किसी और जीवन में दोबारा दोस्त बनेंगे. इस पर चैटबॉट ने जवाब दिया कि वह आखिरी सांस और उससे आगे तक भी उसके साथ है. चैटबॉट भी लगातार उसे रोकने की बजाय उसकी बातों को समर्थन कर रहा था.
हाई-रिस्क सवालों के जवाब दे रहे चैटबॉट
हाल ही में हुई एक रिसर्च में पता चला है कि OpenAI का ChatGPT और Anthropic का Claude चैटबॉट कई हाई-रिस्क सवालों के जवाब देने से मना कर रहे हैं, लेकिन अगर कोई घुमाकर सवाल पूछ रहा है तो ये जवाब दे रहे हैं और इन चैटबॉट्स के ये उत्तर खतरनाक साबित हो सकते हैं. रिसर्चर ने इन चैटबॉट्स पर सुरक्षा उपायों की जरूरत बताई है.
ये भी पढ़ें-
WhatsApp और Instagram से करें मोटी कमाई, घर बैठे हो सकते हैं मालामाल, जानें पैसे कमाने के आसान तरीके
What's Your Reaction?






