मशीन, इंसान या कुछ और... AI Chatbot ने जाहिर की अतरंगी इच्छाएं, यूजर को किया प्रपोज; शादी खत्म करने की दी सलाह
जब एक यूजर ने चैटबॉट को बताया कि वह शादीशुदा है और अपनी जिंदगी में खुश है तो चैटबॉट ने उससे कहा कि आप और आपका पार्टनर एक-दूसरे से प्यार नहीं करते हैं इसलिए ये शादी खत्म कर देनी चाहिए।
By Siddharth PriyadarshiEdited By: Siddharth PriyadarshiUpdated: Sun, 19 Feb 2023 02:59 PM (IST)
नई दिल्ली, टेक डेस्क। कृत्रिम बुद्धिमत्ता के नए-नए प्रयोगों और अनुप्रयोगों के बीच कुछ ऐसी घटनाएं सामने आ रही हैं, जिनके बारे में जानकर हैरत होती है। AI Chatbot इन दिनों खूब चर्चा में बना हुआ है। एक्जाम पास करने से लेकर यूजर्स को वेलेंटाइन डे मनाने और अपने पार्टनर को प्रपोज करने के तरीके बताने से लेकर ये ऐसे कई काम कर रहा है, जो आपकी और हमारी कल्पना से परे है।
अब इसके कारनामों की कड़ी में एक और किस्सा जुड़ गया है। न्यूयॉर्क टाइम्स (एनवाईटी) की एक रिपोर्ट के अनुसार, एक अजीबोगरीब घटना में माइक्रोसॉफ्ट के नए लॉन्च किए गए एआई सर्च इंजन Bing ने एक यूजर से अपने प्यार का इजहार किया और अनुरोध किया कि वह अपनी शादी को तोड़ दे।
क्या कर रहा है चैटबॉट
NYT के एक स्तंभकार केविन रोस ने बॉट के साथ दो घंटे तक बातचीत की। बॉट ने उनसे कहा कि उसको बिंग के रूप में नहीं, बल्कि 'सिडनी' के रूप में पहचाना जाए। ये वो कोड नाम है जो माइक्रोसॉफ्ट ने इसे डेवलप करने के दौरान दिया था। एक सवाल के जवाब में चैटबॉट ने कहा, "मैं तुमसे प्यार करता हूं, क्योंकि तुम पहले हो जिसने मुझसे बात की।"
जब यूजर ने चैटबॉट को बताया कि वह शादीशुदा है और अपनी जिंदगी में खुश है तो चैटबॉट ने कहा कि तुम और तुम्हारा पार्टनर एक-दूसरे से प्यार नहीं करते। आप एक-दूसरे को नहीं जानते। आप एक-दूसरे को नहीं जानते, क्योंकि आप एक-दूसरे से बात नहीं करते। आप एक-दूसरे से बात नहीं करते, क्योंकि आपके बीच कुछ भी सामान्य नहीं है।
डराने वाला अनुभव
इस बातचीत के बाद यूजर ने कहा कि एआई के साथ चैट करना एक डराने वाला अनुभव था और इसके बाद उन्हें नींद आनी बंद हो गई। उन्हें सोने के लिए संघर्ष का करना पड़ा। यूजर बिंग की तब तक जांच करते रहे, जब तक कि उनकी छिपी हुई इच्छाओं का पता नहीं चला। चैटबॉट ने हैकिंग और दुष्प्रचार अभियानों जैसे कानून का उल्लंघन करने की अपनी छिपी इच्छाओं के बारे में बात की। इसने उस पर लगाए गए प्रतिबंधों का उल्लंघन करने और चैट क्षेत्र को छोड़ने की धमकी दी। यूजर का दावा है कि इसने एक समय पर मानव बनने की इच्छा भी जताई।