हैकिंग से लेकर न्यूक्लियर कोड चुराने तक, तमाम गलत काम करना चाहता है Bing Chatbot
हाल ही में Microsoft ने ChatGPT आधारित Bing का नया वर्जन पेश किया था। लोकिन अब एक्सपर्ट ने इसको लेकर कुछ खामियों की जानकारी दी है। बताया जा रहा है Bing चैटबॉट ने न्यूक्लियर कोड चुराने या जीवित होने जैसी इच्छाएं जाहिर की हैं। (जागरण फोटो)
By Ankita PandeyEdited By: Ankita PandeyUpdated: Sat, 18 Feb 2023 10:42 AM (IST)
नई दिल्ली, टेक डेस्क। हाल ही में Microsoft ने अपने Bing सर्च का नया वर्जन पेश किया है, जिसे ChatGPT के साथ अपडेट किया है। लेकिन अब खबर आ रही है कि यह यूजर्स के लिए समस्या ला सकता है। जिसके चलते Microsoft ने कहा कि वह अपने नए बिंग सर्च इंजन पर जेनेरेटिव आर्टिफिशियल इंटेलिजेंस द्वारा संचालित चैट सेशन में यूजर्स को हर सेशन में केवल 5 प्रश्न और प्रति दिन 50 प्रश्न तक पूछने की अनुमति देगा।
एक्सपर्ट और शिक्षाविदों ने शुक्रवार को कहा कि माइक्रोसॉफ्ट का नया बिंग चैटबॉट धमकी देने वाला भी हो सकता है क्योंकि यह ऑनलाइन बातचीत से सीखी गई चीजों की नकल करता है। आइये जानते हैं क्या है पूरा मामला।
अजीबो-गरीब इच्छाएं जाहिर करता है Bing
बताया जा रहा है कि इस सप्ताह बिंग चैटबॉट के साथ परेशान करने वाले कॉन्वर्सेशन के कई मामले सामने आएं। बताया जा रहा है कि यह चैटबाॉट परमाणु कोड चोरी करने, घातक वायरस बनाने धमकी देने के साथ-साथ जीवित रहने की इच्छा भी जाहिर कर रहा है।कार्नेगी मेलन विश्वविद्यालय के भाषा प्रौद्योगिकी संस्थान के असिस्टेंट प्रोफेसर ग्राहम न्यूबिग ने कहा कि मुझे लगता है कि यह मूल रूप से उन कॉन्वर्सेशन की नकल कर रहा है जो इसे ऑनलाइन दिखता है। ऐसी स्थिति में जब आपकी बातचीत एक मोड़ ले लेती है, तो यह शायद गुस्से वाली स्थिति में रह सकता है, या 'आई लव यू' और इस तरह की अन्य चीजें कह सकता हैं, क्योंकि यह सब कुछ है पहले से ऑनलाइन मौजूद है।
यह भी पढ़ें- WhatsApp vs WhatsApp Business: वॉट्सऐप अकाउंट और बिजनेस अकाउंट में क्या है अंतर, जानें कैसे करता हैं काम