आज आर्टिफिशियल इंटेलिजेंस वास्तव में क्या कर सकता है
आज आर्टिफिशियल इंटेलिजेंस वास्तव में क्या कर सकता है
Anonim

स्पॉयलर अलर्ट: मशीनों के उठने में अभी काफी समय है।

आज आर्टिफिशियल इंटेलिजेंस वास्तव में क्या कर सकता है
आज आर्टिफिशियल इंटेलिजेंस वास्तव में क्या कर सकता है

जब एलोन मस्क ने ह्यूमनॉइड रोबोट टेस्ला बॉट का परिचय दिया, तो ऐसा लगता है कि एक नई वैज्ञानिक क्रांति बस कोने के आसपास है। थोड़ा और - और कृत्रिम बुद्धि (एआई) मानव से आगे निकल जाएगी, और मशीनें काम पर हमारी जगह ले लेंगी। हालांकि, प्रोफेसर गैरी मार्कस और अर्नेस्ट डेविस, दोनों प्रसिद्ध एआई विशेषज्ञ, को इस तरह के निष्कर्ष पर नहीं जाने के लिए कहा जाता है।

आर्टिफिशियल इंटेलिजेंस रिबूट में, शोधकर्ता बताते हैं कि आधुनिक तकनीक आदर्श से बहुत दूर क्यों है। प्रकाशन गृह "अल्पिना प्रो" की अनुमति से लाइफहाकर पहले अध्याय से एक अंश प्रकाशित करता है।

इस बिंदु पर, हमारी महत्वाकांक्षा और कृत्रिम बुद्धिमत्ता की वास्तविकता के बीच एक बहुत बड़ा अंतर है - एक वास्तविक खाई। यह खाई तीन विशिष्ट समस्याओं के अनसुलझेपन के कारण उत्पन्न हुई है, जिनमें से प्रत्येक को ईमानदारी से निपटाया जाना चाहिए।

इनमें से पहला वह है जिसे हम भोलापन कहते हैं, जो इस तथ्य पर आधारित है कि हम मनुष्यों ने वास्तव में मनुष्यों और मशीनों के बीच अंतर करना नहीं सीखा है, और इससे हमें मूर्ख बनाना आसान हो जाता है। हम कंप्यूटर को बुद्धिमत्ता का श्रेय देते हैं क्योंकि हम स्वयं विकसित हुए हैं और ऐसे लोगों के बीच रहते हैं जो अपने कार्यों को विचारों, विश्वासों और इच्छाओं जैसे अमूर्त पर आधारित करते हैं। मशीनों का व्यवहार अक्सर सतही तौर पर मनुष्यों के व्यवहार के समान होता है, इसलिए हम मशीनों को उसी प्रकार के बुनियादी तंत्रों को जल्दी से असाइन करते हैं, भले ही मशीनों में वे न हों।

हम मदद नहीं कर सकते लेकिन संज्ञानात्मक शब्दों में मशीनों के बारे में सोच सकते हैं ("मेरा कंप्यूटर सोचता है कि मैंने अपनी फ़ाइल हटा दी है"), भले ही मशीनें वास्तव में कितने सरल नियमों का पालन करती हों। लेकिन निष्कर्ष जो मनुष्यों पर लागू होने पर खुद को सही ठहराते हैं, कृत्रिम बुद्धिमत्ता कार्यक्रमों पर लागू होने पर पूरी तरह से गलत हो सकते हैं। सामाजिक मनोविज्ञान के मूल सिद्धांत के संदर्भ में, हम इसे मौलिक वैधता त्रुटि कहते हैं।

इस त्रुटि के शुरुआती उदाहरणों में से एक 1960 के दशक के मध्य में हुआ, जब एलिजा नाम के एक चैटबॉट ने कुछ लोगों को आश्वस्त किया कि वह वास्तव में उन चीजों को समझ रहा है जो वे उसे बता रहे थे। वास्तव में, एलिजा ने केवल खोजशब्दों को उठाया, उस व्यक्ति द्वारा उससे कही गई अंतिम बात दोहराई, और एक मृत-अंत स्थिति में उसने "अपने बचपन के बारे में बताएं" जैसी मानक संवादी चालों का सहारा लिया। यदि आपने अपनी माँ का उल्लेख किया है, तो वह आपसे आपके परिवार के बारे में पूछेगी, हालाँकि उन्हें नहीं पता था कि परिवार वास्तव में क्या है या यह लोगों के लिए क्यों महत्वपूर्ण है। यह सिर्फ चाल का एक सेट था, सच्ची बुद्धि का प्रदर्शन नहीं।

इस तथ्य के बावजूद कि एलिजा लोगों को बिल्कुल नहीं समझती थी, कई उपयोगकर्ताओं को उसके साथ संवादों से मूर्ख बनाया गया था। कुछ ने कीबोर्ड पर वाक्यांश टाइप करने में घंटों बिताए, एलिजा के साथ इस तरह से बात की, लेकिन चैटबॉट ट्रिक्स की गलत व्याख्या करते हुए, तोते के भाषण को मददगार, ईमानदार सलाह या सहानुभूति के लिए गलत समझा।

एलिजा के निर्माता जोसेफ वीसेनबाम।

जो लोग अच्छी तरह से जानते थे कि वे एक मशीन से बात कर रहे थे, वे जल्द ही इस तथ्य को भूल गए, जैसे थिएटर प्रेमी कुछ समय के लिए अपने अविश्वास को दूर कर देते हैं और भूल जाते हैं कि उनके द्वारा देखी गई कार्रवाई को वास्तविक कहने का कोई अधिकार नहीं है।

एलिजा के वार्ताकार अक्सर सिस्टम के साथ एक निजी बातचीत के लिए अनुमति की मांग करते थे और बातचीत के बाद, मेरे सभी स्पष्टीकरणों के बावजूद, मशीन वास्तव में उन्हें समझती थी।

अन्य मामलों में, प्रामाणिकता का आकलन करने में त्रुटि शब्द के शाब्दिक अर्थ में घातक हो सकती है। 2016 में, एक स्वचालित टेस्ला कार के एक मालिक ने ऑटोपायलट मोड की प्रतीत होने वाली सुरक्षा पर इतना भरोसा किया कि (कहानियों के अनुसार) उसने पूरी तरह से हैरी पॉटर की फिल्में देखने में खुद को डुबो दिया, कार को अपने दम पर सब कुछ करने के लिए छोड़ दिया।

सब कुछ ठीक हो गया - किसी समय यह खराब हो गया। बिना किसी दुर्घटना के सैकड़ों या हजारों मील की दूरी पर चलने के बाद, कार एक अप्रत्याशित बाधा के साथ (शब्द के हर अर्थ में) टकरा गई: एक सफेद ट्रक ने राजमार्ग को पार किया, और टेस्ला ट्रेलर के ठीक नीचे दौड़ा, जिससे कार मालिक की मौके पर ही मौत हो गई।. (कार कई बार ड्राइवर को नियंत्रण लेने के लिए चेतावनी देती हुई दिखाई दी, लेकिन ऐसा लग रहा था कि ड्राइवर जल्दी से प्रतिक्रिया करने के लिए बहुत आराम से था।)

इस कहानी का नैतिक स्पष्ट है: तथ्य यह है कि एक उपकरण एक या दो पल (और यहां तक कि छह महीने) के लिए "स्मार्ट" लग सकता है, इसका मतलब यह बिल्कुल नहीं है कि यह वास्तव में ऐसा है या यह उन सभी परिस्थितियों का सामना कर सकता है जिनमें एक व्यक्ति पर्याप्त रूप से प्रतिक्रिया करेगा।

दूसरी समस्या जिसे हम तीव्र प्रगति का भ्रम कहते हैं: कृत्रिम बुद्धिमत्ता में गलत प्रगति, आसान समस्याओं को हल करने से जुड़ी, प्रगति के लिए, वास्तव में कठिन समस्याओं को हल करने से जुड़ी। यह, उदाहरण के लिए, आईबीएम वाटसन प्रणाली के साथ हुआ: खेल में इसकी प्रगति ख़तरे में! बहुत आशाजनक लग रहा था, लेकिन वास्तव में यह प्रणाली मानव भाषा को समझने की तुलना में डेवलपर्स की अपेक्षा से बहुत आगे निकल गई।

यह संभव है कि दीपमाइंड का अल्फागो कार्यक्रम उसी पथ का अनुसरण करेगा। गो का खेल, शतरंज की तरह, एक आदर्श सूचना खेल है जहां दोनों खिलाड़ी किसी भी समय पूरे बोर्ड को देख सकते हैं और क्रूर बल द्वारा चाल के परिणामों की गणना कर सकते हैं।

ज्यादातर मामलों में, वास्तविक जीवन में, कोई भी पूर्ण निश्चितता के साथ कुछ भी नहीं जानता है; हमारा डेटा अक्सर अधूरा या विकृत होता है।

साधारण से छोटे मामलों में भी बहुत अनिश्चितता होती है। जब हम तय करते हैं कि डॉक्टर के पास पैदल जाना है या मेट्रो लेना है (क्योंकि दिन में बादल छाए रहते हैं), तो हमें नहीं पता होता है कि मेट्रो ट्रेन का इंतजार करने में कितना समय लगेगा, ट्रेन सड़क पर फंस गई है या नहीं, हम एक बैरल में हेरिंग की तरह गाड़ी में रटेंगे या हम बाहर बारिश में भीग जाएंगे, मेट्रो लेने की हिम्मत नहीं करेंगे, और डॉक्टर हमारे विलंब पर कैसे प्रतिक्रिया देंगे।

हम हमेशा उस जानकारी के साथ काम करते हैं जो हमारे पास होती है। लाखों बार गो खेलते हुए, डीपमाइंड अल्फागो सिस्टम ने कभी भी अनिश्चितता का सामना नहीं किया है, यह केवल यह नहीं जानता कि जानकारी की कमी या इसकी अपूर्णता और असंगति, मानव संपर्क की जटिलताओं का उल्लेख नहीं करना है।

एक और पैरामीटर है जो माइंड गेम को वास्तविक दुनिया से बहुत अलग बनाता है, और यह फिर से डेटा के साथ करना है। यहां तक कि जटिल खेल (यदि नियम काफी सख्त हैं) को लगभग पूरी तरह से तैयार किया जा सकता है, इसलिए उन्हें खेलने वाली कृत्रिम बुद्धिमत्ता प्रणाली आसानी से बड़ी मात्रा में डेटा एकत्र कर सकती है जिसे उन्हें प्रशिक्षित करने की आवश्यकता होती है। इस प्रकार, गो के मामले में, एक मशीन केवल अपने खिलाफ खेलकर लोगों के साथ खेल का अनुकरण कर सकती है; भले ही सिस्टम को टेराबाइट्स डेटा की आवश्यकता हो, वह इसे स्वयं बनाएगा।

इस प्रकार प्रोग्रामर कम या बिना किसी लागत के पूरी तरह से स्वच्छ सिमुलेशन डेटा प्राप्त कर सकते हैं। इसके विपरीत, वास्तविक दुनिया में, पूरी तरह से साफ डेटा मौजूद नहीं है, इसका अनुकरण करना असंभव है (चूंकि खेल के नियम लगातार बदल रहे हैं), और परीक्षण द्वारा प्रासंगिक डेटा के कई गीगाबाइट एकत्र करना अधिक कठिन है। और त्रुटि।

वास्तव में, हमारे पास विभिन्न रणनीतियों का परीक्षण करने के लिए केवल कुछ ही प्रयास हैं।

उदाहरण के लिए, हम परिवहन पसंद के मामले में अपने व्यवहार में नाटकीय रूप से सुधार करने के लिए, प्रत्येक यात्रा से पहले निर्णयों के मापदंडों को धीरे-धीरे समायोजित करते हुए, 10 मिलियन बार डॉक्टर के पास एक यात्रा को दोहराने में सक्षम नहीं हैं।

यदि प्रोग्रामर बुजुर्गों की मदद करने के लिए रोबोट को प्रशिक्षित करना चाहते हैं (जैसे, बीमार लोगों को बिस्तर पर रखने में मदद करने के लिए), तो डेटा का हर बिट वास्तविक धन और वास्तविक मानव समय के लायक होगा; सिमुलेशन गेम का उपयोग करके सभी आवश्यक डेटा एकत्र करने का कोई तरीका नहीं है। यहां तक कि क्रैश टेस्ट डमी भी वास्तविक लोगों की जगह नहीं ले सकते।

विभिन्न प्रकार के बिस्तरों, विभिन्न प्रकार के पजामा, विभिन्न प्रकार के घरों पर, विभिन्न प्रकार के वृद्ध लोगों की विभिन्न विशेषताओं के साथ वास्तविक बुजुर्ग लोगों पर डेटा एकत्र करना आवश्यक है, और यहां आप गलतियाँ नहीं कर सकते, क्योंकि एक व्यक्ति को कई की दूरी पर भी गिराना बिस्तर से सेंटीमीटर एक आपदा होगी। इस मामले में, संकीर्ण कृत्रिम बुद्धि के तरीकों का उपयोग करके इस क्षेत्र में एक निश्चित प्रगति (अब तक सबसे प्राथमिक) दांव पर है। कंप्यूटर सिस्टम विकसित किए गए हैं जो वीडियो गेम Dota 2 और Starcraft 2 में लगभग सर्वश्रेष्ठ मानव खिलाड़ियों के स्तर पर खेलते हैं, जहां किसी भी समय प्रतिभागियों को खेल की दुनिया का केवल एक हिस्सा दिखाया जाता है और इस प्रकार, प्रत्येक खिलाड़ी का सामना करना पड़ता है जानकारी की कमी की समस्या - जिसे क्लॉजविट्ज़ के हल्के हाथ से "अज्ञात का कोहरा" कहा जाता है। हालाँकि, विकसित प्रणालियाँ अभी भी बहुत संकीर्ण रूप से केंद्रित हैं और संचालन में अस्थिर हैं। उदाहरण के लिए, स्टारक्राफ्ट 2 में चलने वाले अल्फास्टार प्रोग्राम ने विभिन्न प्रकार के पात्रों से केवल एक विशिष्ट दौड़ सीखी है, और इनमें से लगभग कोई भी विकास किसी भी अन्य दौड़ के रूप में खेलने योग्य नहीं है। और, निश्चित रूप से, यह मानने का कोई कारण नहीं है कि इन कार्यक्रमों में उपयोग की जाने वाली विधियां बहुत अधिक जटिल वास्तविक जीवन स्थितियों में सफल सामान्यीकरण करने के लिए उपयुक्त हैं। वास्तविक जीवन। जैसा कि आईबीएम ने एक बार नहीं, बल्कि पहले से ही दो बार खोजा है (पहले शतरंज में, और फिर खतरे में!), एक बंद दुनिया से समस्याओं में सफलता एक खुली दुनिया में सफलता की गारंटी नहीं देती है।

वर्णित खाई का तीसरा चक्र विश्वसनीयता का एक overestimation है। बार-बार, हम देखते हैं कि जैसे ही लोग आर्टिफिशियल इंटेलिजेंस की मदद से किसी ऐसी समस्या का हल ढूंढते हैं, जो बिना किसी असफलता के कुछ समय के लिए काम कर सकती है, वे स्वतः ही यह मान लेते हैं कि संशोधन के साथ (और थोड़ी बड़ी मात्रा में डेटा के साथ) सब कुछ मज़बूती से काम करेगा। समय। लेकिन जरूरी नहीं कि ऐसा ही हो।

हम बिना ड्राइवरों के फिर से कार लेते हैं। एक स्वायत्त वाहन का डेमो बनाना अपेक्षाकृत आसान है जो एक शांत सड़क पर स्पष्ट रूप से चिह्नित लेन के साथ सही ढंग से चलाएगा; हालांकि, लोग एक सदी से भी अधिक समय से ऐसा करने में सक्षम हैं। हालांकि, इन प्रणालियों को कठिन या अप्रत्याशित परिस्थितियों में काम करने के लिए प्राप्त करना अधिक कठिन है।

जैसा कि ड्यूक विश्वविद्यालय में मानव और स्वायत्तता प्रयोगशाला के निदेशक (और एक पूर्व अमेरिकी नौसेना लड़ाकू पायलट) मिस्सी कमिंग्स ने हमें एक ईमेल में बताया, सवाल यह नहीं है कि एक चालक रहित कार दुर्घटना के बिना कितनी मील की यात्रा कर सकती है। जिससे ये कारें बदलती परिस्थितियों के अनुकूल होने में सक्षम हैं। उसकी मिस्सी कमिंग्स के अनुसार, 22 सितंबर, 2018 को लेखकों को ईमेल करें।, आधुनिक अर्ध-स्वायत्त वाहन "आमतौर पर केवल बहुत ही संकीर्ण परिस्थितियों में काम करते हैं, जो इस बारे में कुछ नहीं कहते हैं कि वे आदर्श परिस्थितियों से कम में कैसे काम कर सकते हैं।"

फीनिक्स में लाखों टेस्ट मील पर पूरी तरह से भरोसेमंद दिखने का मतलब बॉम्बे में मानसून के दौरान अच्छा प्रदर्शन करना नहीं है।

आदर्श परिस्थितियों में स्वायत्त वाहन कैसे व्यवहार करते हैं (जैसे उपनगरीय मल्टी-लेन सड़कों पर धूप के दिन) और वे चरम स्थितियों में क्या कर सकते हैं, के बीच यह मूलभूत अंतर आसानी से पूरे उद्योग के लिए सफलता और विफलता का विषय बन सकता है।

चरम स्थितियों में स्वायत्त ड्राइविंग पर इतना कम जोर देने के साथ और वर्तमान पद्धति यह सुनिश्चित करने की दिशा में विकसित नहीं हुई है कि ऑटोपायलट उन परिस्थितियों में सही ढंग से काम करेगा जिन्हें अभी वास्तविक रूप से माना जाने लगा है, यह जल्द ही स्पष्ट हो सकता है कि अरबों डॉलर सेल्फ-ड्राइविंग कारों के निर्माण के तरीकों पर खर्च किया गया है जो मानव-जैसी ड्राइविंग विश्वसनीयता प्रदान करने में विफल हैं।यह संभव है कि तकनीकी विश्वास के उस स्तर को प्राप्त करने के लिए जिसकी हमें आवश्यकता है, मौजूदा दृष्टिकोणों से मौलिक रूप से भिन्न दृष्टिकोणों की आवश्यकता है।

और कारें कई समान कारों का सिर्फ एक उदाहरण हैं। कृत्रिम बुद्धि पर आधुनिक शोध में, इसकी विश्वसनीयता को विश्व स्तर पर कम करके आंका गया है। यह आंशिक रूप से है क्योंकि इस क्षेत्र के अधिकांश मौजूदा विकास में ऐसी समस्याएं शामिल हैं जो अत्यधिक त्रुटि-सहिष्णु हैं, जैसे विज्ञापन की सिफारिश करना या नए उत्पादों को बढ़ावा देना।

वास्तव में, यदि हम आपको पांच प्रकार के उत्पादों की सलाह देते हैं, और आप उनमें से केवल तीन को पसंद करते हैं, तो कोई नुकसान नहीं होगा। लेकिन चालक रहित कारों, बुजुर्गों की देखभाल और स्वास्थ्य देखभाल योजना सहित भविष्य के लिए कई महत्वपूर्ण एआई अनुप्रयोगों में, मानव जैसी विश्वसनीयता महत्वपूर्ण होगी।

कोई भी ऐसा घरेलू रोबोट नहीं खरीदेगा जो आपके बुजुर्ग दादा को सुरक्षित रूप से पांच में से केवल चार बार बिस्तर पर ले जा सके।

उन कार्यों में भी जहां आधुनिक कृत्रिम बुद्धि सैद्धांतिक रूप से सर्वोत्तम संभव प्रकाश में दिखाई देनी चाहिए, गंभीर विफलताएं नियमित रूप से होती हैं, कभी-कभी बहुत ही हास्यास्पद लगती हैं। एक विशिष्ट उदाहरण: कंप्यूटर, सिद्धांत रूप में, पहले से ही अच्छी तरह से सीख चुके हैं कि इस या उस छवि में क्या है (या हो रहा है) को कैसे पहचाना जाए।

कभी-कभी ये एल्गोरिदम बहुत अच्छा काम करते हैं, लेकिन अक्सर वे पूरी तरह से अविश्वसनीय त्रुटियां उत्पन्न करते हैं। यदि आप एक स्वचालित प्रणाली को एक छवि दिखाते हैं जो रोज़मर्रा के दृश्यों की तस्वीरों के लिए कैप्शन उत्पन्न करती है, तो आपको अक्सर एक ऐसा उत्तर मिलता है जो उल्लेखनीय रूप से एक मानव के समान होता है; उदाहरण के लिए, नीचे के दृश्य के लिए, जहां लोगों का एक समूह फ्रिसबी खेल रहा है, Google का अत्यधिक प्रचारित उपशीर्षक जनरेटिंग सिस्टम इसे बिल्कुल सही नाम देता है।

चित्र 1.1। फ्रिसबी खेलने वाले युवाओं का समूह (प्रशंसनीय फोटो कैप्शन, स्वचालित रूप से एआई द्वारा उत्पन्न)
चित्र 1.1। फ्रिसबी खेलने वाले युवाओं का समूह (प्रशंसनीय फोटो कैप्शन, स्वचालित रूप से एआई द्वारा उत्पन्न)

लेकिन पांच मिनट बाद, आप आसानी से उसी सिस्टम से बिल्कुल बेतुका उत्तर प्राप्त कर सकते हैं, जैसा हुआ, उदाहरण के लिए, इस रोड साइन के साथ, जिस पर किसी ने स्टिकर चिपका दिया: सिस्टम के रचनाकारों ने यह नहीं बताया कि यह त्रुटि क्यों हुई, लेकिन ऐसे मामले असामान्य नहीं हैं। हम यह मान सकते हैं कि इस विशेष मामले में सिस्टम ने फोटोग्राफ को अन्य चित्रों (जिससे उसने सीखा) के समान वर्गीकृत किया (शायद रंग और बनावट के संदर्भ में) "बहुत सारे भोजन और पेय से भरा रेफ्रिजरेटर" के रूप में लेबल किया गया। स्वाभाविक रूप से, कंप्यूटर को यह समझ में नहीं आया (जिसे कोई व्यक्ति आसानी से समझ सकता है) कि ऐसा शिलालेख केवल एक बड़े आयताकार धातु के बक्से के मामले में उपयुक्त होगा जिसमें विभिन्न (और फिर भी सभी नहीं) वस्तुएं हों। यह दृश्य है "एक रेफ्रिजरेटर जिसमें ढेर सारा खाना और पेय है।"

चावल। 1.2. भोजन और पेय के भार से भरा रेफ्रिजरेटर (पूरी तरह से असंभव शीर्षक, ऊपर के समान सिस्टम द्वारा बनाया गया)
चावल। 1.2. भोजन और पेय के भार से भरा रेफ्रिजरेटर (पूरी तरह से असंभव शीर्षक, ऊपर के समान सिस्टम द्वारा बनाया गया)

इसी तरह, चालक रहित कारें अक्सर सही ढंग से पहचानती हैं कि वे "क्या देखते हैं", लेकिन कभी-कभी वे स्पष्ट रूप से अनदेखी करने लगते हैं, जैसा कि टेस्ला के मामले में होता है, जो नियमित रूप से ऑटोपायलट पर पार्क किए गए फायर ट्रक या एम्बुलेंस में दुर्घटनाग्रस्त हो जाता है। इस तरह के ब्लाइंड स्पॉट और भी खतरनाक हो सकते हैं यदि वे ऐसे सिस्टम में स्थित हों जो पावर ग्रिड को नियंत्रित करते हैं या सार्वजनिक स्वास्थ्य की निगरानी के लिए जिम्मेदार हैं।

महत्वाकांक्षा और कृत्रिम बुद्धिमत्ता की वास्तविकताओं के बीच की खाई को पाटने के लिए, हमें तीन चीजों की आवश्यकता है: इस खेल में दांव पर लगे मूल्यों की स्पष्ट जागरूकता, आधुनिक एआई सिस्टम अपने कार्यों को पर्याप्त रूप से पर्याप्त रूप से क्यों नहीं करते हैं, इसकी स्पष्ट समझ, और, अंत में, एक नई विकास रणनीति मशीन सोच।

चूंकि कृत्रिम बुद्धिमत्ता पर दांव वास्तव में नौकरियों, सुरक्षा और समाज के ताने-बाने के मामले में बहुत अधिक हैं, इसलिए हम सभी के लिए - एआई पेशेवरों, संबंधित व्यवसायों, आम नागरिकों और राजनेताओं - मामलों की सही स्थिति को समझने की तत्काल आवश्यकता है। इस क्षेत्र में आज की कृत्रिम बुद्धि के विकास के स्तर और प्रकृति का गंभीर रूप से आकलन करने के लिए सीखने के लिए।

जिस तरह समाचार और आंकड़ों में रुचि रखने वाले नागरिकों के लिए यह समझना महत्वपूर्ण है कि शब्दों और संख्याओं से लोगों को गुमराह करना कितना आसान है, इसलिए यहां समझने का एक महत्वपूर्ण पहलू है ताकि हम यह पता लगा सकें कि कृत्रिम बुद्धि कहां है। केवल विज्ञापन, लेकिन यह वास्तविक कहां है; वह अब क्या करने में सक्षम है, और वह क्या नहीं जानता कि कैसे और शायद, वह नहीं सीखेगा।

सबसे महत्वपूर्ण बात यह महसूस करना है कि कृत्रिम बुद्धि जादू नहीं है, बल्कि तकनीकों और एल्गोरिदम का एक सेट है, जिनमें से प्रत्येक की अपनी ताकत और कमजोरियां हैं, कुछ कार्यों के लिए उपयुक्त है और दूसरों के लिए उपयुक्त नहीं है। इस पुस्तक को लिखने के लिए हमने जो मुख्य कारण निर्धारित किए हैं उनमें से एक यह है कि कृत्रिम बुद्धि के बारे में हम जो कुछ भी पढ़ते हैं वह हमें एक पूर्ण कल्पना प्रतीत होता है, कृत्रिम बुद्धि की लगभग जादुई शक्ति में एक निराधार विश्वास से बढ़ रहा है।

इस बीच, इस कल्पना का आधुनिक तकनीकी क्षमताओं से कोई लेना-देना नहीं है। दुर्भाग्य से, आम जनता के बीच एआई की चर्चा अटकलों और अतिशयोक्ति से काफी प्रभावित रही है: अधिकांश लोगों को पता नहीं है कि सार्वभौमिक कृत्रिम बुद्धि बनाना कितना मुश्किल है।

आइए आगे की चर्चा को स्पष्ट करें। यद्यपि एआई से जुड़ी वास्तविकताओं को स्पष्ट करने के लिए हमें गंभीर आलोचना की आवश्यकता होगी, हम स्वयं कृत्रिम बुद्धि के विरोधी नहीं हैं, हम वास्तव में तकनीकी प्रगति के इस पक्ष को पसंद करते हैं। हमने इस क्षेत्र में पेशेवरों के रूप में अपने जीवन का एक महत्वपूर्ण हिस्सा जिया है और हम चाहते हैं कि यह जल्द से जल्द विकसित हो।

अमेरिकी दार्शनिक ह्यूबर्ट ड्रेफस ने एक बार इस बारे में एक किताब लिखी थी कि उनकी राय में कृत्रिम बुद्धिमत्ता कितनी ऊंचाइयों तक नहीं पहुंच सकती। यह वह नहीं है जिसके बारे में यह किताब है। यह आंशिक रूप से इस बात पर ध्यान केंद्रित करता है कि एआई वर्तमान में क्या नहीं कर सकता है और इसे समझना क्यों महत्वपूर्ण है, लेकिन इसका एक महत्वपूर्ण हिस्सा इस बारे में बात करता है कि कंप्यूटर की सोच में सुधार के लिए क्या किया जा सकता है और इसे उन क्षेत्रों तक विस्तारित किया जा सकता है जहां अब इसे पहले करने में कठिनाई होती है।

हम नहीं चाहते कि आर्टिफिशियल इंटेलिजेंस गायब हो जाए; हम चाहते हैं कि इसके अलावा, मौलिक रूप से सुधार हो, ताकि हम वास्तव में इस पर भरोसा कर सकें और इसकी मदद से मानव जाति की कई समस्याओं का समाधान कर सकें। कृत्रिम बुद्धिमत्ता की वर्तमान स्थिति के बारे में हमारी बहुत सारी आलोचनाएँ हैं, लेकिन हमारी आलोचना विज्ञान के प्रति प्रेम की अभिव्यक्ति है, न कि सब कुछ छोड़ने और त्यागने का आह्वान।

संक्षेप में, हम मानते हैं कि कृत्रिम बुद्धि वास्तव में हमारी दुनिया को गंभीरता से बदल सकती है; लेकिन हम यह भी मानते हैं कि वास्तविक प्रगति के बारे में बात करने से पहले एआई के बारे में कई बुनियादी धारणाओं को बदलना होगा। कृत्रिम बुद्धि का हमारा प्रस्तावित "रीसेट" अनुसंधान को समाप्त करने का एक कारण नहीं है (हालांकि कुछ लोग हमारी पुस्तक को ठीक इसी भावना से समझ सकते हैं), बल्कि एक निदान है: हम अभी कहां फंस गए हैं और हम कैसे बाहर निकलते हैं आज की स्थिति।

हम मानते हैं कि आगे बढ़ने का सबसे अच्छा तरीका यह हो सकता है कि हम अपने मन की संरचना का सामना करते हुए अपने भीतर की ओर देखें।

वास्तव में बुद्धिमान मशीनों को मनुष्यों की सटीक प्रतिकृति होना जरूरी नहीं है, लेकिन जो कोई भी कृत्रिम बुद्धिमत्ता को ईमानदारी से देखता है, वह देखेगा कि मनुष्यों से अभी भी बहुत कुछ सीखना बाकी है, खासकर छोटे बच्चों से, जो कई मायनों में मशीनों से कहीं बेहतर हैं। नई अवधारणाओं को आत्मसात करने और समझने की उनकी क्षमता।

चिकित्सा वैज्ञानिक अक्सर कंप्यूटर को "अलौकिक" (एक तरह से या किसी अन्य) सिस्टम के रूप में चिह्नित करते हैं, लेकिन मानव मस्तिष्क अभी भी कम से कम पांच पहलुओं में अपने सिलिकॉन समकक्षों से काफी बेहतर है: हम भाषा को समझ सकते हैं, हम दुनिया को समझ सकते हैं, हम लचीले ढंग से कर सकते हैं नई परिस्थितियों के अनुकूल होने पर, हम जल्दी से नई चीजें सीख सकते हैं (यहां तक कि बड़ी मात्रा में डेटा के बिना भी) और अधूरी और यहां तक कि परस्पर विरोधी जानकारी के सामने तर्क कर सकते हैं। इन सभी मोर्चों पर आधुनिक आर्टिफिशियल इंटेलिजेंस सिस्टम इंसानों से पूरी तरह पीछे हैं।

आर्टिफिशियल इंटेलिजेंस रिबूट
आर्टिफिशियल इंटेलिजेंस रिबूट

आर्टिफिशियल इंटेलिजेंस: रीबूट में उन लोगों की दिलचस्पी होगी जो आधुनिक तकनीकों को समझना चाहते हैं और यह समझना चाहते हैं कि एआई की एक नई पीढ़ी कैसे और कब हमारे जीवन को बेहतर बना सकती है।

सिफारिश की: