ड्रोन और सेल्फ ड्राइविंग कार हथियार के रूप में: हमें हैकर्स से डरने की जरूरत क्यों है
ड्रोन और सेल्फ ड्राइविंग कार हथियार के रूप में: हमें हैकर्स से डरने की जरूरत क्यों है
Anonim

अगर कृत्रिम बुद्धि गलत हाथों में पड़ जाती है, तो सभ्य दुनिया अराजकता में डूब सकती है।

ड्रोन और सेल्फ ड्राइविंग कार हथियार के रूप में: हमें हैकर्स से डरने की जरूरत क्यों है
ड्रोन और सेल्फ ड्राइविंग कार हथियार के रूप में: हमें हैकर्स से डरने की जरूरत क्यों है

इस बात से कोई इंकार नहीं करेगा कि आर्टिफिशियल इंटेलिजेंस हमारे जीवन को अगले स्तर तक ले जा सकता है। एआई कई समस्याओं को हल करने में सक्षम है जो मनुष्य की शक्ति से परे हैं।

हालांकि, कई लोगों का मानना है कि अधीक्षण निश्चित रूप से स्काईनेट की तरह हमें नष्ट करना चाहेगा, या पोर्टल गेम से ग्लैडोस जैसे लोगों पर प्रयोग करना शुरू कर देगा। विडंबना यह है कि केवल मनुष्य ही कृत्रिम बुद्धिमत्ता को अच्छा या बुरा बना सकता है।

क्यों आर्टिफिशियल इंटेलिजेंस एक गंभीर खतरा हो सकता है
क्यों आर्टिफिशियल इंटेलिजेंस एक गंभीर खतरा हो सकता है

येल यूनिवर्सिटी, ऑक्सफोर्ड, कैम्ब्रिज और ओपनएआई के शोधकर्ताओं ने आर्टिफिशियल इंटेलिजेंस के दुरुपयोग पर एक रिपोर्ट प्रकाशित की है। यह कहता है कि असली खतरा हैकर्स से आता है। दुर्भावनापूर्ण कोड की मदद से, वे एआई के नियंत्रण में स्वचालित सिस्टम के संचालन को बाधित कर सकते हैं।

शोधकर्ताओं को डर है कि सुविचारित प्रौद्योगिकियों को नुकसान होगा। उदाहरण के लिए, निगरानी उपकरणों का उपयोग न केवल आतंकवादियों को पकड़ने के लिए, बल्कि आम नागरिकों की जासूसी करने के लिए भी किया जा सकता है। शोधकर्ता वाणिज्यिक ड्रोन के बारे में भी चिंतित हैं जो भोजन पहुंचाते हैं। उन्हें रोकना और कुछ विस्फोटक लगाना आसान है।

एआई के विनाशकारी उपयोग के लिए एक अन्य परिदृश्य सेल्फ-ड्राइविंग कार है। कोड की कुछ पंक्तियों को बदलने के लिए पर्याप्त है, और मशीनें सुरक्षा नियमों की उपेक्षा करना शुरू कर देंगी।

क्यों आर्टिफिशियल इंटेलिजेंस एक गंभीर खतरा हो सकता है
क्यों आर्टिफिशियल इंटेलिजेंस एक गंभीर खतरा हो सकता है

वैज्ञानिकों का मानना है कि यह खतरा डिजिटल, भौतिक और राजनीतिक हो सकता है।

  • विभिन्न सॉफ्टवेयर कोड की कमजोरियों का अध्ययन करने के लिए कृत्रिम बुद्धिमत्ता का उपयोग पहले से ही किया जा रहा है। भविष्य में, हैकर्स एक ऐसा बॉट बना सकते हैं जो किसी भी सुरक्षा को बायपास कर देगा।
  • एआई की मदद से, एक व्यक्ति कई प्रक्रियाओं को स्वचालित कर सकता है: उदाहरण के लिए, ड्रोन के झुंड या कारों के समूह को नियंत्रित करना।
  • डीपफेक जैसी तकनीकों की मदद से इंटरनेट पर बॉट्स का इस्तेमाल करने वाले विश्व नेताओं के बारे में गलत जानकारी फैलाकर राज्य के राजनीतिक जीवन को प्रभावित करना संभव है।

ये भयावह उदाहरण अब तक केवल एक परिकल्पना के रूप में मौजूद हैं। अध्ययन के लेखक प्रौद्योगिकी की पूर्ण अस्वीकृति का सुझाव नहीं देते हैं। इसके बजाय, उनका मानना है कि राष्ट्रीय सरकारों और बड़ी कंपनियों को सुरक्षा का ध्यान रखना चाहिए, जबकि एआई उद्योग अभी भी अपनी प्रारंभिक अवस्था में है।

नीति निर्माताओं को कृत्रिम बुद्धि के निर्माण और उपयोग को प्रभावी ढंग से विनियमित करने के लिए प्रौद्योगिकी का अध्ययन करना चाहिए और क्षेत्र में विशेषज्ञों के साथ काम करना चाहिए।

बदले में, डेवलपर्स को उच्च प्रौद्योगिकी से उत्पन्न खतरे का आकलन करना चाहिए, सबसे खराब परिणामों की आशा करनी चाहिए और विश्व के नेताओं को उनके बारे में चेतावनी देनी चाहिए। रिपोर्ट में एआई डेवलपर्स से अन्य क्षेत्रों में सुरक्षा विशेषज्ञों के साथ टीम बनाने और यह देखने के लिए कहा गया है कि क्या इन तकनीकों की सुरक्षा सुनिश्चित करने वाले सिद्धांतों का उपयोग कृत्रिम बुद्धिमत्ता की सुरक्षा के लिए किया जा सकता है।

पूरी रिपोर्ट समस्या का अधिक विस्तार से वर्णन करती है, लेकिन लब्बोलुआब यह है कि एआई एक शक्तिशाली उपकरण है। सभी इच्छुक पार्टियों को नई तकनीक का अध्ययन करना चाहिए और सुनिश्चित करना चाहिए कि इसका उपयोग आपराधिक उद्देश्यों के लिए नहीं किया जा रहा है।

सिफारिश की: