जोधपुर पुलिस को अश्लील वीडियो और तस्वीरों के आधार पर ब्लैकमेलिंग की कई शिकायतें मिली हैं। ये सामग्री आर्टिफिशियल इंटेलिजेंस द्वारा बनाई जा रही है।
तकनीक का उपयोग आमतौर पर लोगों की जिंदगी को सरल बनाने के लिए किया जाता है। हालाँकि, अब ऐसी तकनीकें भी सामने आई हैं जो पहले के समय में किए जाने वाले कार्यों को चंद मिनटों में पूरा कर देती हैं। लेकिन यह भी सच है कि तकनीक का दुरुपयोग भी हो रहा है, जिसमें डीप फेक एक प्रमुख उदाहरण है।
जोधपुर में आर्टिफिशियल इंटेलिजेंस का उपयोग कर कई युवाओं को ब्लैकमेल करने के मामले सामने आए हैं। जहां कई सेलेब्स इस तकनीक के शिकार हुए हैं, वहीं आम जनता भी इससे प्रभावित हो रही है। लोगों की तस्वीरों का उपयोग कर उनके अश्लील वीडियो बनाकर उन्हें ब्लैकमेल किया जा रहा है। पुलिस को इस तरह की कई शिकायतें प्राप्त हुई हैं।
एक प्राइवेट कॉलेज की छात्रा को एक युवक लंबे समय से परेशान कर रहा था। जब उसने युवक को ब्लॉक किया, तो उसने डीप फेक का उपयोग कर उसके अश्लील वीडियो बनाए और उन्हें वायरल कर दिया। इसी तरह एक अन्य महिला के साथ भी ऐसा हुआ, जहां उसके पूर्व प्रेमी ने उसकी अश्लील तस्वीरें और वीडियो आर्टिफिशियल इंटेलिजेंस से बनाकर साझा कर दिए।
यदि आप इस प्रकार की घटनाओं से बचना चाहते हैं, तो सावधानी बरतना आवश्यक है। अपने सोशल मीडिया अकाउंट को सुरक्षित रखें और किसी भी अंजान व्यक्ति को उसमें जोड़ने से बचें। यदि आपके साथ डीप फेक की कोई घटना होती है, तो तुरंत साइबर सेल को सूचित करें। साइबर विशेषज्ञों के अनुसार, पिछले छह महीनों में ऐसे तीस से अधिक ऐप्स का पता चला है जो इस तरह की तस्वीरें बनाने में मदद करते हैं, जिन्हें गूगल ने भी बैन कर दिया है।
You may also like
अमेरिका-ईरान परमाणु वार्ता का दूसरा दौर रोम में शुरू, क्या निकलेगा कोई हल?
हिंदू नामों का सहारा लेकर मुस्लिम चला रहे थे होटल, GSRTC ने पकड़ा तो हो गया बवाल ⑅
भारतीय टीम से हटाए जाने के बाद अभिषेक नायर फिर से केकेआर के सपोर्ट स्टाफ में शामिल हुए
सुहागरात के दिन पत्नी को देख पति के उड़ गए होश, ससुर को फोन कर कहा- तुम्हारी बेटी▫ ⑅
मौलाना शहाबुद्दीन ने बाबा बागेश्वर को दी चेतावनी, कहा- उनका दिमाग खुल जाएगा… ये क्या बोल गए मौलवी! ⑅