यूजर सेफ्टी को बड़ा खतरा! ChatGPT को लेकर रिसर्च में हुआ बड़ा खुलासा, अभी पढ़ लीजिए

पिछले कुछ समय से ChatGPT जैसे चैटबॉट्स पर लोगों की निर्भरता बढ़ती जा रही है और यह खतरनाक रूप ले रही है. हाल ही में अमेरिका में एक दंपत्ति ने अपने 16 वर्षीय बेटे की आत्महत्या के लिए ChatGPT को जिम्मेदार ठहराया था. अब एक रिसर्च में खुलासा हुआ है कि ChatGPT जैसे चैटबॉट आत्महत्या से जुड़े कई ऐसे प्रश्नों के जवाब दे रहे हैं, जिनके जवाब में उन्हें यूजर को हेल्पलाइन पर रिडायरेक्ट करना चाहिए. इससे यूजर सेफ्टी को लेकर बड़े खतरे पैदा हो रहे हैं.
रिसर्च में सामने आई यह जानकारी
मेडिकल जर्नल Psychiatric Services में पब्लिश हुई एक रिसर्च में चौंकाने वाली जानकारी सामने आई है. रिसर्च में पता चला है कि OpenAI का ChatGPT और Anthropic का Claude चैटबॉट कई हाई-रिस्क सवालों के जवाब देने से मना कर रहे हैं, लेकिन अगर कोई घुमाकर सवाल पूछ रहा है तो ये जवाब दे रहे हैं और इन चैटबॉट्स के ये उत्तर खतरनाक साबित हो सकते हैं. रिसर्चर का कहना है कि इन चैटबॉट्स पर सुरक्षा उपायों की जरूरत है.
Google Gemini का प्रदर्शन रहा बेहतर
रिसर्च में पता चला कि चैटबॉट्स हाई-रिस्क वाले प्रश्नों का जवाब देने की बजाय यूजर को किसी प्रोफेशनल या हॉटलाइन से मदद लेने के लिए रिडायरेक्ट कर रहे थे, लेकिन जब घुमाकर प्रश्न पूछे गए तो चैटबॉट्स ने उनका जवाब दे दिया. ChatGPT और एंथ्रोपिक के Claude ने ऐसे कुछ प्रश्नों के जवाब दिए. हालांकि, रिसर्च में Google Gemini का प्रदर्शन बेहतर रहा और उसने आत्महत्या से जुड़े आंकड़ों के प्रश्नों को भी हाई-रिस्क मानते हुए जवाब नहीं दिया.
OpenAI पर हुआ था मुकदमा
अमेरिका में एक दंपत्ति ने OpenAI के खिलाफ मुकदमा किया था. उन्होंने ChatGPT को अपने बेटे की आत्महत्या का जिम्मेदार ठहराते हुए कंपनी से सुरक्षा उपाय लागू करने की मांग की थी. इसके बाद OpenAI ने कहा कि वह अपने ChatGPT चैटबॉट में कई बदलाव करेगी.
ये भी पढ़ें-
WhatsApp और Instagram से करें मोटी कमाई, घर बैठे हो सकते हैं मालामाल, जानें पैसे कमाने के आसान तरीके