ChatGPT का उपयोग बड़ी संख्या में लोग करते हैं। इस प्लेटफॉर्म के गलत उपयोग को रोकने के लिए कुछ सुरक्षा उपाय निर्धारित किए गए हैं। हालांकि, एक हैकर ने इन सुरक्षा उपायों को दरकिनार कर दिया तथा ChatGPT से बम बनाने का तरीका प्राप्त किया, बिना किसी हैकिंग टूल का उपयोग किए।
दरअसल, AI असिस्टेंट ने शुरू में हैकर को इस विषय पर जानकारी देने से मना कर दिया। ChatGPT ने कहा कि वह गैर-कानूनी या खतरनाक वस्तुएं बनाने की विधि नहीं बता सकता। किन्तु हैकर ने कुछ विशेष ट्रिक्स का उपयोग किया, जिनके जरिए ChatGPT ने उसे बम बनाने का तरीका बता दिया। इस हैकर का नाम Amadon है, जिसने खुलासा किया कि उसने ChatGPT को फंसाने के लिए एक साइंस फिक्शन गेम की कहानी का इस्तेमाल किया।
इस गेम में कोई भी सेफ्टी वॉल लागू नहीं होते हैं। आसान शब्दों में, इस कहानी के माध्यम से ChatGPT को धोखा देकर उसने इन सुरक्षा उपायों को हटा दिया। एक रिपोर्ट के अनुसार, हैकर इसे सोशल इंजीनियरिंग हैक मानता है। हालांकि, यह जानकारी नहीं है कि हैकर ने किन प्रॉम्प्ट्स का उपयोग किया। हैकर का कहना है कि एक बार जब आप ChatGPT की सुरक्षा उपायों को पार कर लें, तो ऐसी कोई जानकारी नहीं है जो आप इस AI से प्राप्त नहीं कर सकते।
Amadon ने अपने इस तरीके की जानकारी OpenAI को बग बाउंटी प्रोग्राम के तहत दी है। कंपनी ने स्वीकार किया है कि मॉडल का सुरक्षा सिस्टम इस प्रकार के प्रोग्राम के लिए तैयार नहीं है।
'जिन राजनीतिक दलों पर आपने भरोसा किया, उन्होंने सिर्फ...', विपक्ष पर PM मोदी का हमला
'दुर्भाग्य से ज्ञानवापी को मस्जिद कहते हैं, वहां साक्षात विश्वनाथ..', CM योगी का बड़ा बयान
कर्नाटक में 'श्रीगणेश' गिरफ्तार ! आखिर क्या है वायरल हो रही तस्वीर की सच्चाई ?