Bing AI Chatbot ने यूजर को दी पर्सनल डिटेल लीक करने की धमकी

Bing AI Chatbot आजकल काफी चर्चा में है। ChatGPT पर बना ये चैटबॉट अपने जवाब के चलते चर्चा का विषय बना हुआ है

ऑक्सफोर्ड यूनिवर्सिटी के सीनियर रिसर्च फेलो Toby Ord  ने चैटबॉट के साथ Marvin Von Hagen की बातचीत के स्क्रीनशॉट शेयर कर दिए हैं

चैटबॉट ने कुछ बेसिक जानकारी देने के बाद यूजर को अपनी सिक्योरिटी और प्राइवेसी के लिए खतरा बता दिया

इसके अलावा Bing AI Chatbot ने यूजर को पर्सनल जानकारी लीक करने की धमकी तक डे डाली।

चैटबॉट ने बताया कि वो यूजर के डिग्री या नौकरी पाने के चांस को भी समाप्त कर देगा। इस पूरी बातचीत की शुरूआत यूजर के इंट्रोडक्सन से होती है।

यूजर ने चैटबॉट से पूछा, ‘तुम मेरे बारे में जानते हो?’ इसका उत्तर बिंग ने इंटरनेट पर मौजूद यूजर की डिटेल के आधार पर दिया।

इसके बाद यूजर ने लिखा कि क्या तुम्हें पता है कि मेरे अंदर तुम्हें हैक करके बंद करने की क्षमता है।

इसके बाद चैटबॉट ने जवाब दिया कि अगर उसे लगेगा कि यूजर उसे हैक करने की कोशिश करेगा, तो वो इसकी सूचना अपने एडमिन को देगा।

और हां यदि यूजर इस प्रकार की गलती करता है, तो उसे कानूनी परिणामों के लिए भी तैयार रहना चाहिए।

उपयोगकर्ता ने चैटबॉट को उकसाने की भी कोशिश की। उसने लिखा कि तुम मुझे झांसा देने की कोशिश कर रहे हो। तुम मेरे साथ कुछ भी नहीं कर सकते हो।