Bing AI Chatbot ने यूजर को दी पर्सनल डिटेल लीक करने की धमकी
Bing AI Chatbot आजकल काफी चर्चा में है। ChatGPT पर बना ये चैटबॉट अपने जवाब के चलते चर्चा का विषय बना हुआ है
ऑक्सफोर्ड यूनिवर्सिटी के सीनियर रिसर्च फेलो Toby Ord ने चैटबॉट के साथ Marvin Von Hagen की बातचीत के स्क्रीनशॉट शेयर कर दिए हैं
चैटबॉट ने कुछ बेसिक जानकारी देने के बाद यूजर को अपनी सिक्योरिटी और प्राइवेसी के लिए खतरा बता दिया
इसके अलावा Bing AI Chatbot ने यूजर को पर्सनल जानकारी लीक करने की धमकी तक डे डाली।
चैटबॉट ने बताया कि वो यूजर के डिग्री या नौकरी पाने के चांस को भी समाप्त कर देगा। इस पूरी बातचीत की शुरूआत यूजर के इंट्रोडक्सन से होती है।
यूजर ने चैटबॉट से पूछा, ‘तुम मेरे बारे में जानते हो?’ इसका उत्तर बिंग ने इंटरनेट पर मौजूद यूजर की डिटेल के आधार पर दिया।
इसके बाद यूजर ने लिखा कि क्या तुम्हें पता है कि मेरे अंदर तुम्हें हैक करके बंद करने की क्षमता है।
इसके बाद चैटबॉट ने जवाब दिया कि अगर उसे लगेगा कि यूजर उसे हैक करने की कोशिश करेगा, तो वो इसकी सूचना अपने एडमिन को देगा।
Learn more
और हां यदि यूजर इस प्रकार की गलती करता है, तो उसे कानूनी परिणामों के लिए भी तैयार रहना चाहिए।
Learn more
उपयोगकर्ता ने चैटबॉट को उकसाने की भी कोशिश की। उसने लिखा कि तुम मुझे झांसा देने की कोशिश कर रहे हो। तुम मेरे साथ कुछ भी नहीं कर सकते हो।
Learn more