समयसीमा 237
मानव व उनकी इन्द्रियाँ 948
मानव व उसके आविष्कार 725
भूगोल 236
जीव - जन्तु 275
वर्तमान समय में विज्ञान और तकनीकी अपने चरम पर है और इसलिए विभिन्न देशों द्वारा विभिन्न प्रकार के विकसित हथियारों का निर्माण किया जा रहा है। अंततः दुनिया के पास एक ऐसे रोबोट (Robot) को बनाने की तकनीक है, जो बिना किसी चूक के हमला करता है। एक विजेता सेना एक प्रमुख शहर का विनाश करना चाहती है, लेकिन सेना को डोर-टू-डोर (Door-to-door) लड़ाई में फंसाना नहीं चाहती क्योंकि वे शहरी क्षेत्र में फैलना चाहते हैं। इसके बजाय वे इन निर्देशों के साथ कि- ‘हथियार पकडे हुए प्रत्येक व्यक्ति को गोली मार दो’, हजारों छोटे ड्रोनों (Drones) को झुंड में भेजते हैं। कुछ ही घंटों बाद, शहर आक्रमणकारियों के प्रवेश के लिए सुरक्षित हो जाता है। यह एक कल्पित विज्ञान पर आधारित फिल्म की तरह लगता है। लेकिन वास्तव में ऐसा होने की तकनीकें आज ज्यादातर देशों में उपलब्ध है और दुनिया भर का सैन्य-बल इसे विकसित करने में रुचि रखता है। एल्गोरिथ्म (Algorithm) में उन लोगों की एक निश्चित सूची हो सकती है जिसे इसको लक्षित करना है और यह केवल तब ही प्रहार कर सकता है जब यह अत्यधिक आश्वस्त हो कि उसने उन लक्ष्यों में से एक को पहचान लिया है।
युद्ध के फुटेज (Footage) से, इसे यह अनुमान लगाने के लिए प्रशिक्षित किया जा सकता है, कि कब कोई मानव इसे गोली चलाने के लिए निर्देशित करेगा। युद्ध क्षेत्र में यदि किसी व्यक्ति के हाथ में बंदूक जैसा हथियार हो और उसने अपने सैन्य-बल जैसी वर्दी न भी पहनी हो, तो उस स्थिति लिए भी इसे गोली चलाने हेतु प्रशिक्षित किया जा सकता है। यह मानव संचालक द्वारा संचालित कर दिये जाने के बाद पहले से दिए गए पैमानों के आधार पर अपना लक्ष्य चुन कर उस पर हमला कर सकते हैं। लेकिन वास्तव में प्रश्न यह है कि क्या हमें ऐसी तकनीक को आगे बढ़ाना चाहिए?
वर्तमान समय में इस प्रकार के रोबोट की श्रेणी में घातक स्वायत्त हथियार (Lethal Autonomous Weapon) भी शामिल हैं, जोकि एक प्रकार का स्वायत्त सैन्य रोबोट है, जिसे घातक स्वायत्त हथियार प्रणाली, घातक स्वायत्त रोबोट, स्वायत्त हथियार प्रणाली, रोबोटिक हथियार इत्यादि नामों से भी जाना जाता है। यह क्रमादेशित सीमाओं और विवरणों के आधार पर स्वतंत्र रूप से लक्ष्यों को खोजकर और उन्हें लक्षित कर सकता है। इसका उपयोग हवा में, जमीन, पानी, पानी के नीचे, या अंतरिक्ष में भी किया जा सकता है। ऐसे कई देश हैं जो इस तरह की तकनीक पर काम कर रहे हैं, जैसे रूसी संघ सक्रियता के साथ कृत्रिम रूप से बुद्धिमान मिसाइल, ड्रोन, मानव रहित वाहन, सैन्य रोबोट इत्यादि विकसित कर रहा है। इसी प्रकार से इज़राइल, चीन और ब्रिटिश सेना द्वारा इस प्रकार के सैन्य रोबोट और मानव रहित वाहन विकसित किये जा रहे हैं। कृत्रिम बुद्धिमत्ता और सार्वजनिक नीति के शोधकर्ता विभिन्न देशों के लिए यह दृष्टिकोण बनाने की कोशिश कर रहे हैं, कि हत्यारे रोबोट न केवल फिल्मों में बल्कि वास्तविक जीवन में भी एक बुरा विचार है। युद्ध के संपार्श्विक नुकसान को कम करने के लिए निश्चित रूप से कृत्रिम बुद्धिमत्ता का उपयोग करने के बहुत से तरीके हैं, लेकिन नए नैतिक, तकनीकी और रणनीतिक दुविधाओं की कशमकश में स्वायत्त हथियारों की शुरूआत होने की पूर्ण संभावना है।
इन्हीं सब कारणों से वैज्ञानिकों और कार्यकर्ताओं ने संयुक्त राष्ट्र और विश्व सरकारों को इन हथियारों पर प्रतिबंध लगाने हेतु विचार करने के लिए प्रोत्साहित किया है। इस प्रकार के हथियारों का उपयोग नैतिक निहितार्थ को भयावह बनाता हैं। युद्ध में सैनिक, नैतिक और कानूनी रूप से बाध्य होते हैं, और इसलिए वे कुछ भी गलत या नियमों के विपरीत कार्य नहीं कर सकते। किन्तु रोबोट के मामले स्थिति विपरीत है, वे युद्ध के कानूनों का पालन करने के लिए किसी भी तरह के विवरण पर विचार करने हेतु सक्षम नहीं हैं या यूं कहें कि वे नैतिक और कानूनी रूप से बाध्य नहीं हैं। इनके हथियारों के उपयोग के साथ कई नैतिक और कानूनी चिंताएं उभरती हैं, क्योंकि जीवन और मौत के फैसले एक मशीन में स्थानांतरित कर दिए जाते हैं। पूरी दुनिया में आतंकवादी बड़ी दिलचस्पी के साथ इसे देख रहे हैं। यह उनके ऑपरेशनों (Operations) की दक्षता को बढ़ाएगा और सैनिकों को होने वाले नुकसान को भी कम करेगा। ये हथियार आतंकवादियों और अन्य अवांछनीय समूहों के हाथों में भी पड़ सकते हैं, जिससे इस तरह के हथियारों का प्रसार कई सुरक्षा मुद्दों को उठाएगा। इस प्रकार यह कहा जा सकता है कि स्वायत्त हथियार प्रणालियां मानव नियंत्रण से परे जा सकती हैं। हालांकि वर्तमान में, कृत्रिम बुद्धि को इतना विकसित नहीं किया गया है कि वह हथियार प्रणालियों को वास्तव में स्वायत्त और मानव नियंत्रण से परे बना सके। लेकिन भविष्य में ऐसा होने की उम्मीद की जा सकती है। इसके सम्बन्ध में एक बड़ा सवाल जवाबदेही का भी उठता है क्योंकि इसका उपयोग मानव भागीदारी के हिस्से को कम कर देता है। क्या नैतिकता को मशीनों में कोडित (Coded) किया जा सकता है? क्या जिम्मेदारी, रचनात्मकता और करुणा कार्यों को मशीनों द्वारा छूट दी जा सकती है? इत्यादि प्रश्न घातक स्वायत्त हथियार के विकास के साथ उभरते हैं।
संयुक्त राष्ट्र का मानना है कि, इस तरह के जानलेवा स्वायत्त हथियारों पर प्रतिबंध लगाना अत्यधिक आवश्यक है। सरकारी विशेषज्ञों को अपने एक संदेश में उसने कहा कि - ऐसी मशीनंद जिनमें इतनी ताक़त और समझ हो कि अपने आप ही वे लोगों की जान ले सकें, राजनीतिक रूप से अस्वीकार्य और नैतिक दृष्टि से घिनौनी हैं तथा उन पर अंतरराष्ट्रीय क़ानून में प्रतिबंध लगना चाहिए। उन्होंने स्पष्ट किया कि, मानव जीवन को छीन लेने वाले स्वायत्त घातक हथियार प्रणालियों के पक्ष में कोई भी देश या सैन्य बल नहीं है। ऐसी तकनीक अंतरराष्ट्रीय मानवीय क़ानूनों के सामने चुनौती पैदा करती हैं। कृत्रिम बुद्धिमत्ता में सभी के लिए शांति और समृद्धि से परिपूर्ण एक गरिमामय जीवन की दिशा में प्रगति त्वरित करने की संभावना है। लेकिन यह गंभीर चुनौतियां और नैतिक मुश संयुक्त राष्ट्र का मानना है कि, इस तरह के जानलेवा स्वायत्त हथियारों पर प्रतिबंध लगाना अत्यधिक आवश्यक है। सरकारी विशेषज्ञों को अपने एक संदेश में उसने कहा कि - ऐसी मशीने जिनमें इतनी ताक़त और समझ हो कि अपने आप ही वे लोगों की जान ले सकें, राजनीतिक रूप से अस्वीकार्य और नैतिक दृष्टि से घिनौनी हैं तथा उन पर अंतरराष्ट्रीय क़ानून में प्रतिबंधSW लगना चाहिए। उन्होंने स्पष्ट किया कि, मानव जीवन को छीन लेने वाले स्वायत्त घातक हथियार प्रणालियों के पक्ष में कोई भी देश या सैन्य बल नहीं है। ऐसी तकनीक अंतरराष्ट्रीय मानवीय क़ानूनों के सामने चुनौती पैदा करती हैं। कृत्रिम बुद्धिमत्ता में सभी के लिए शांति और समृद्धि से परिपूर्ण एक गरिमामय जीवन की दिशा में प्रगति त्वरित करने की संभावना है। लेकिन यह गंभीर चुनौतियां और नैतिक मुश्किलें भी उत्पन्न करती है। यह हथियार साइबर (Cyber) सुरक्षा, मानवाधिकार और निजता जैसे मुद्दों के समक्ष चुनौती पैदा करता है।
भारत में भी इस प्रकार के हथियारों का विकास और प्रसार इन सभी मुद्दों से जुड़ा हुआ है। जहां भारत को कृत्रिम बुद्धि, मशीन लर्निंग (Machine learning) और बड़े डेटा विश्लेषण (Data analytics) जैसी उभरती प्रौद्योगिकियों का संज्ञान लेने और इन क्षेत्रों में अपनी क्षमताओं को विकसित करने की आवश्यकता है, वहीं उसे स्वायत्त हथियार प्रणालियों से सम्बंधित मुद्दों में भी संलग्न होना आवश्यक है। भारत के लिए यह उपयोगी होगा कि यह इन मुद्दों पर विचार-विमर्श करने के लिए अधिकारियों, उद्योग और अकादमियों के एक कार्य बल का गठन करे, एक चर्चा पत्र तैयार करे तथा अपनी टिप्पणियों के लिए उसे जनता के साथ साझा करे। इंसान और मशीनें अलग-अलग तरह की गलतियाँ करते हैं, लेकिन अगर वे एक साथ काम करें तो दोनों तरह की गलतियों से बचा जा सकता है।
चित्र (सन्दर्भ):
1. मुख्य चित्र में एक रोबोटिक मानव रहित हथियार है। (Wikipedia)
2. रोबोटिक मानव रहित हथियार को टेस्ट करते सेनाकर्मी (Wikipedia)
3. अल्फा रोबोट का कंप्यूटर जनरेटेड ग्राफ़िक प्रदर्शन (Wikipedia)
4. कृत्रिम बुद्धिमत्ता धारण किये हुए सैन्य वाहन (Wikipedia)
5. रिमोट द्वारा संचालित ड्रोन (Wikipedia)
6. फ्रेंच कृत्रिम बुद्धिमत्ता वाले हथियार (Wikipedia)
सन्दर्भ:
1. https://en.wikipedia.org/wiki/Lethal_autonomous_weapon
2. https://news.un.org/en/story/2019/03/1035381
3. https://www.vox.com/2019/6/21/18691459/killer-robots-lethal-autonomous-weapons-ai-war
4. https://bit.ly/2Wa1db6
A. City Subscribers (FB + App) - This is the Total city-based unique subscribers from the Prarang Hindi FB page and the Prarang App who reached this specific post.
B. Website (Google + Direct) - This is the Total viewership of readers who reached this post directly through their browsers and via Google search.
C. Total Viewership — This is the Sum of all Subscribers (FB+App), Website (Google+Direct), Email, and Instagram who reached this Prarang post/page.
D. The Reach (Viewership) - The reach on the post is updated either on the 6th day from the day of posting or on the completion (Day 31 or 32) of one month from the day of posting.