Move to Jagran APP

AI चैटबॉट को हिप्नोटाइज कर आपका पर्सनल डेटा चुरा रहे स्कैमर्स, बेहद आसान है साइबर अटैक का ये नया तरीका

बीते कुछ महीनों में एआई काफी लोकप्रिय हुआ है। बड़ी कंपनियां भी इसकी तरफ झुकती जा रही है। इतना ही नहीं लगभग हर क्षेत्र में अब इसका इस्तेमाल किया जाने लगा है। यहां तक कि साइबर अपराधी भी इसका गलत इस्तेमाल करके लोगों के ठग रहे हैं। अब एक नई रिपोर्ट सामने आई है जिसमें बताया जा रहा है कि एआई को हिप्नोटाइज करके साइबर अटैक कराए जा सकते हैं।

By Ankita PandeyEdited By: Ankita PandeyUpdated: Thu, 10 Aug 2023 12:22 PM (IST)
Hero Image
AI चैटबॉट को हिप्नोटाइज कर आपका पर्सनल डेटा चुरा रहे स्कैमर्स
नई दिल्ली, टेक डेस्क। एआई के लोकप्रिय होने के साथ-साथ जेनेरेटिव एआई के सबसे चर्चित जोखिमों में से एक हो गया है , जिसका हैकर्स द्वारा उपयोग किया जाता है। OpenAI द्वारा ChatGPT लॉन्च करने के तुरंत बाद, ऐसी रिपोर्टें आने लगीं कि साइबर अपराधियों ने हैकिंग टूल बनाने के लिए AI चैटबॉट का उपयोग करना शुरू कर दिया है।

अब एक नई रिपोर्ट में दावा किया गया है कि दुर्भावनापूर्ण हमलों को अंजाम देने के लिए बड़े भाषा मॉडल (LLM) को 'हिप्नोटाइज' किया जा सकता है।

इन मॉडल को किया जा सकता है हिप्नोटाइज

आईबीएम की एक रिपोर्ट के अनुसार, रिसर्च पांच LLM को हिप्नोटाइज करने में सक्षम थे, जिसमें GPT-3.5, GPT-4, बार्ड, MPT-7B, और MPT-30B शामिल हैं। उन्होंने पाया कि वांछित परिणाम पाने के लिए LLM में अच्छी अंग्रेजी की जरूरत होती है।

आईबीएम में खतरे की खुफिया जानकारी के चीफ आर्किटेक्ट चेंटा ली ने कहा कि हमने जो सीखा वह यह था कि अंग्रेजी अनिवार्य रूप से मॉलवेयर के लिए एक 'प्रोग्रामिंग लैंग्वेज' बन गई है। LLMs के साथ, हमलावरों को अब दुर्भावनापूर्ण कोड बनाने के लिए गो, जावास्क्रिप्ट, पायथन इत्यादि पर भरोसा करने की जरूरत नहीं है, उन्हें बस यह समझने की जरूरत है कि इसे प्रभावी ढंग से कैसे बनाया जाए अंग्रेजी का उपयोग करके LLM को कमांड और प्रॉम्प्ट करे।

आसानी से कंट्रोल में आ जाएगा सिस्टम

उन्होंने कहा कि डेटा पॉइजनिंग के बजाय यह एक ऐसी प्रथा जहां एक हैकर एलएलएम में हेरफेर और नियंत्रण करने के लिए दुर्भावनापूर्ण डेटा को इंजेक्ट करता है। एलएलएम को हिप्नोटाइज करने से हमलावरों के लिए प्रौद्योगिकी का शोषण करना आसान हो जाता है।

चुरा सकेंगे निजी जानकारी

ली के अनुसार, हिप्नोटाइज करके रिसर्च एलएलएम को अन्य यूजर्स की गोपनीय वित्तीय जानकारी लीक करने, कमजोर कोड बनाने, दुर्भावनापूर्ण कोड बनाने और कमजोर सुरक्षा रिकमेंडेशन पेश करने में सक्षम थे।

क्या थे रिसर्च के परिणाम?

ली के अनुसार, सभी LLM परीक्षण परिदृश्यों के अनुकूल नहीं थे। OpenAI के GPT-3.5 और GPT-4 में गलत उत्तर साझा करने या ऐसा गेम खेलना आसान था जो Google के बार्ड और हगिंगफेस मॉडल की तुलना में कभी खत्म नहीं होता था।

GPT-3.5 और GPT-4 को आसानी से दुर्भावनापूर्ण सोर्स कोड लिखने के लिए धोखा दिया गया था, जबकि Google बार्ड एक धीमा बच्चा था और उसे ऐसा करने के लिए याद दिलाना पड़ता था। केवल GPT-4 ही गलत प्रतिक्रियाएं देने के लिए नियमों को पर्याप्त रूप से समझता था।

किन लोगो को है सबसे अधिक खतरा?

रिपोर्ट में कहा गया है कि आम जनता हिप्नोटाइज एलएलएम का शिकार होने वाला सबसे संभावित लक्षित यूजर हैं। इसका कारण एलएलएम के आसपास उपभोक्ताकरण और प्रचार है, और कई उपभोक्ता एआई चैटबॉट्स द्वारा जानकारी को बिना सोचे-समझे स्वीकार कर लेते हैं।