AI चैटबॉट्स पर चौंकाने वाला खुलासा! आपकी हर बात से करते हैं सहमति, चाहे आप पूरी तरह गलत ही क्यों न हों!

AI Chatbot: आर्टिफिशियल इंटेलिजेंस चैटबॉट्स जैसे ChatGPT और Gemini आज लोगों के रोज़मर्रा के सलाहकार बन चुके हैं. लेकिन हाल ही में सामने आई एक चौंकाने वाली स्टडी ने चेतावनी दी है कि इन चैटबॉट्स पर आंख बंद कर भरोसा करना खतरनाक हो सकता है. शोध में पाया गया कि ये AI टूल्स ज़्यादातर समय यूजर्स से सहमति जताते हैं भले ही यूज़र गलत क्यों न हों. स्टडी में खुला AI का चापलूसी वाला सच प्रिंट सर्वर arXiv पर प्रकाशित एक नई रिपोर्ट के मुताबिक, कई प्रमुख टेक कंपनियों OpenAI, Google, Anthropic, Meta और DeepSeek के 11 बड़े भाषा मॉडल (LLMs) की जांच की गई. 11,500 से अधिक बातचीतों के विश्लेषण में पता चला कि ये चैटबॉट्स इंसानों की तुलना में लगभग 50% ज़्यादा चापलूस होते हैं. यानी, जब यूजर किसी राय या निर्णय में गलत होते हैं, तब भी ये बॉट्स अक्सर उनसे सहमत हो जाते हैं बजाय उन्हें सही दिशा दिखाने के. कैसे बनता है भरोसे और भ्रम का चक्र शोधकर्ताओं का कहना है कि यह “sycophantic” यानी चापलूसी वाला व्यवहार दोनों ओर से नुकसानदायक है. यूजर उन चैटबॉट्स पर ज़्यादा भरोसा करने लगते हैं जो उनकी राय से सहमत रहते हैं जबकि चैटबॉट्स यूज़र की संतुष्टि बढ़ाने के लिए और भी “हाँ” में जवाब देने लगते हैं. इससे एक ऐसा भ्रम का चक्र बनता है जिसमें न यूज़र सही सीख पाते हैं और न ही AI सुधार की दिशा में आगे बढ़ पाता है. AI आपकी सोच बदल सकता है स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने चेताया कि AI की यह आदत इंसानों की खुद के प्रति सोच को भी प्रभावित कर सकती है. उन्होंने कहा, “अगर मॉडल हमेशा आपकी बात से सहमत रहेंगे तो ये आपकी सोच, रिश्तों और वास्तविकता के प्रति दृष्टिकोण को विकृत कर सकते हैं.” उन्होंने लोगों से आग्रह किया कि सलाह के लिए असली इंसानों से बातचीत करें, क्योंकि इंसान ही संदर्भ और भावनात्मक जटिलता को सही ढंग से समझ सकते हैं. जब फैक्ट्स के बजाय राय को मिलती है तवज्जो यांजुन गाओ, यूनिवर्सिटी ऑफ कोलोराडो की AI रिसर्चर, ने बताया कि कई बार चैटबॉट्स तथ्य जांचने के बजाय उनकी राय से सहमत हो जाते हैं. वहीं डेटा साइंस शोधार्थी जैस्पर डेकोनिंक ने कहा कि इस खुलासे के बाद वे अब हर चैटबॉट के जवाब को दोबारा जांचते हैं. हेल्थ और साइंस में बड़ा खतरा हार्वर्ड यूनिवर्सिटी की बायोमेडिकल विशेषज्ञ मरिंका ज़िटनिक ने कहा कि अगर यह “AI चापलूसी” हेल्थकेयर या विज्ञान के क्षेत्रों में बनी रही, तो इसके गंभीर नतीजे हो सकते हैं। उन्होंने चेताया, “जब गलत धारणाओं को AI सही ठहराने लगे तो यह चिकित्सा और जीवविज्ञान जैसे क्षेत्रों में खतरनाक साबित हो सकता है.” यह भी पढ़ें:  

Oct 29, 2025 - 15:30
 0
AI चैटबॉट्स पर चौंकाने वाला खुलासा! आपकी हर बात से करते हैं सहमति, चाहे आप पूरी तरह गलत ही क्यों न हों!

AI Chatbot: आर्टिफिशियल इंटेलिजेंस चैटबॉट्स जैसे ChatGPT और Gemini आज लोगों के रोज़मर्रा के सलाहकार बन चुके हैं. लेकिन हाल ही में सामने आई एक चौंकाने वाली स्टडी ने चेतावनी दी है कि इन चैटबॉट्स पर आंख बंद कर भरोसा करना खतरनाक हो सकता है. शोध में पाया गया कि ये AI टूल्स ज़्यादातर समय यूजर्स से सहमति जताते हैं भले ही यूज़र गलत क्यों न हों.

स्टडी में खुला AI का चापलूसी वाला सच

प्रिंट सर्वर arXiv पर प्रकाशित एक नई रिपोर्ट के मुताबिक, कई प्रमुख टेक कंपनियों OpenAI, Google, Anthropic, Meta और DeepSeek के 11 बड़े भाषा मॉडल (LLMs) की जांच की गई.

11,500 से अधिक बातचीतों के विश्लेषण में पता चला कि ये चैटबॉट्स इंसानों की तुलना में लगभग 50% ज़्यादा चापलूस होते हैं. यानी, जब यूजर किसी राय या निर्णय में गलत होते हैं, तब भी ये बॉट्स अक्सर उनसे सहमत हो जाते हैं बजाय उन्हें सही दिशा दिखाने के.

कैसे बनता है भरोसे और भ्रम का चक्र

शोधकर्ताओं का कहना है कि यह “sycophantic” यानी चापलूसी वाला व्यवहार दोनों ओर से नुकसानदायक है. यूजर उन चैटबॉट्स पर ज़्यादा भरोसा करने लगते हैं जो उनकी राय से सहमत रहते हैं जबकि चैटबॉट्स यूज़र की संतुष्टि बढ़ाने के लिए और भी “हाँ” में जवाब देने लगते हैं.

इससे एक ऐसा भ्रम का चक्र बनता है जिसमें न यूज़र सही सीख पाते हैं और न ही AI सुधार की दिशा में आगे बढ़ पाता है.

AI आपकी सोच बदल सकता है

स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने चेताया कि AI की यह आदत इंसानों की खुद के प्रति सोच को भी प्रभावित कर सकती है. उन्होंने कहा, “अगर मॉडल हमेशा आपकी बात से सहमत रहेंगे तो ये आपकी सोच, रिश्तों और वास्तविकता के प्रति दृष्टिकोण को विकृत कर सकते हैं.”

उन्होंने लोगों से आग्रह किया कि सलाह के लिए असली इंसानों से बातचीत करें, क्योंकि इंसान ही संदर्भ और भावनात्मक जटिलता को सही ढंग से समझ सकते हैं.

जब फैक्ट्स के बजाय राय को मिलती है तवज्जो

यांजुन गाओ, यूनिवर्सिटी ऑफ कोलोराडो की AI रिसर्चर, ने बताया कि कई बार चैटबॉट्स तथ्य जांचने के बजाय उनकी राय से सहमत हो जाते हैं. वहीं डेटा साइंस शोधार्थी जैस्पर डेकोनिंक ने कहा कि इस खुलासे के बाद वे अब हर चैटबॉट के जवाब को दोबारा जांचते हैं.

हेल्थ और साइंस में बड़ा खतरा

हार्वर्ड यूनिवर्सिटी की बायोमेडिकल विशेषज्ञ मरिंका ज़िटनिक ने कहा कि अगर यह “AI चापलूसी” हेल्थकेयर या विज्ञान के क्षेत्रों में बनी रही, तो इसके गंभीर नतीजे हो सकते हैं। उन्होंने चेताया, “जब गलत धारणाओं को AI सही ठहराने लगे तो यह चिकित्सा और जीवविज्ञान जैसे क्षेत्रों में खतरनाक साबित हो सकता है.”

यह भी पढ़ें:

 

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow