Next Story
Newszop

आधुनिक तकनीक: वरदान या मानवता के लिए अगला महासंकट? 5 चौंकाने वाली प्रौद्योगिकियाँ

Send Push

भारत सहित पूरे विश्व में तकनीकी प्रगति हुई है। जिन कार्यों में पहले कई दिन लगते थे, अब वे मिनटों में हो सकते हैं। प्रौद्योगिकी का उपयोग हर क्षेत्र में किया जाता है, चाहे वह शिक्षा हो या व्यवसाय। तकनीकी प्रगति से मानव को लाभ तो हो रहा है, लेकिन इन लाभों के साथ-साथ तकनीक ने जोखिम भी बढ़ा दिए हैं। अपराधी लोगों की जानकारी लीक करने के लिए प्रौद्योगिकी का दुरुपयोग कर रहे हैं। इसके अलावा, वे लोगों से पैसे भी चुरा रहे हैं। इसलिए अब सवाल यह उठता है कि क्या प्रौद्योगिकी अभिशाप है या वरदान? अब हम आपको पांच ऐसी खतरनाक तकनीकों के बारे में बताने जा रहे हैं, जो भविष्य में मानवता के लिए खतरा बन सकती हैं।

 

चेहरे की पहचान (चेहरा पहचान तकनीक)

सुरक्षा के दृष्टिकोण से चेहरा पहचान तकनीक बहुत उपयोगी है। इस तकनीक के कई फायदे हैं। लेकिन इन लाभों के साथ-साथ इसका दुरुपयोग भी हो सकता है। उदाहरण के लिए, चीन में इस चेहरा पहचान तकनीक का उपयोग मुस्लिम समुदाय पर नजर रखने और नियंत्रण करने के लिए किया जाता है। रूस जैसे देशों में सड़कों पर लगाए गए कैमरों का उपयोग “विशिष्ट लोगों की पहचान” करने के लिए भी किया जाता है। यह तकनीक हमारी बायोमेट्रिक जानकारी जैसे हमारा चेहरा, उंगलियों के निशान और हाव-भाव एकत्रित करती है। लेकिन अगर इस जानकारी का दुरुपयोग किया गया तो यह हमारे लिए खतरा बन सकती है।

स्मार्ट ड्रोन

पहले ड्रोन का उपयोग मनोरंजन और फोटोग्राफी के लिए किया जाता था। लेकिन अब युद्ध के मैदान में स्मार्ट ड्रोन का इस्तेमाल किया जाता है, जो स्वयं निर्णय लेते हैं और लक्ष्यों पर निशाना साधते हैं। यद्यपि ये ड्रोन सैन्य अभियानों में गति और दक्षता लाते हैं, लेकिन यदि कोई तकनीकी खराबी आ जाए तो वे निर्दोष लोगों को भी निशाना बना सकते हैं। युद्ध के दौरान इस तकनीक के उपयोग से देशों के बीच शत्रुता और बढ़ सकती है।

एआई क्लोनिंग और डीपफेक

AI की मदद से आप किसी भी व्यक्ति की आवाज की नकल कर सकते हैं। कुछ सेकंड के ऑडियो या कुछ छवियों के साथ, आप AI की मदद से क्लोनिंग और डीपफेक वीडियो बना सकते हैं। ये वीडियो बिल्कुल वास्तविक लगते हैं। डीपफेक तकनीक मशीन लर्निंग और फेस मैपिंग का उपयोग करके वीडियो बनाती है, जिसमें व्यक्ति ऐसी बातें कहता हुआ दिखाई देता है, जो उसने कभी नहीं कही। कई कलाकारों, नेताओं और अभिनेताओं के डीपफेक वीडियो वायरल हुए। इन वीडियो को डिलीट करने के लिए बड़ी रकम वसूली जाती है।

फर्जी समाचार बॉट

ग्रोवर जैसी एआई प्रणालियां केवल शीर्षक पढ़कर पूरी तरह से फर्जी समाचार बना सकती हैं। ओपनएआई जैसे संगठनों ने पहले ही ऐसे बॉट बना लिए हैं जो वास्तविक लगने वाले समाचार तैयार कर सकते हैं। हालाँकि, इन बॉट्स का दुरुपयोग रोकने के लिए इन्हें अभी तक सार्वजनिक नहीं किया गया है। क्योंकि अगर ये बॉट गलत हाथों में पड़ गए तो इससे लोकतंत्र और सामाजिक स्थिरता को खतरा हो सकता है। इससे कई गलतफहमियां पैदा हो सकती हैं।

स्मार्ट डस्ट

स्मार्ट डस्ट एक माइक्रोइलेक्ट्रोमैकेनिकल सिस्टम (एमईएमएस) है। स्मार्ट डस्ट इतना छोटा होता है कि इसके कण नमक के आकार के होते हैं। यह सेंसर और कैमरों से लैस है, जो सारा डेटा रिकॉर्ड करता है। इसका उपयोग स्वास्थ्य और सुरक्षा जैसे क्षेत्रों में अत्यंत लाभकारी हो सकता है। लेकिन निगरानी, जासूसी या अवैध गतिविधियों के लिए इस तकनीक का उपयोग बड़ी समस्याएं पैदा कर सकता है।

Loving Newspoint? Download the app now