पाठ्यक्रम: GS3/कृत्रिम बुद्धिमत्ता/रक्षा
संदर्भ
- भारत ने युद्ध में कृत्रिम बुद्धिमत्ता (AI) के उपयोग को नियंत्रित करने संबंधी प्रतिज्ञा पर हस्ताक्षर करने से असहमति व्यक्त की। यह निर्णय जिम्मेदार कृत्रिम बुद्धिमत्ता के सैन्य क्षेत्र (REAIM) पर आयोजित तीसरे वैश्विक शिखर सम्मेलन में लिया गया।
परिचय
- लगभग एक-तिहाई सहभागी देशों ने ‘पाथवेज़ टू एक्शन’ घोषणा-पत्र पर हस्ताक्षर किए।
- संयुक्त राज्य अमेरिका, भारत और चीन उन देशों में शामिल थे जिन्होंने हस्ताक्षर नहीं किए।
- विगत शिखर सम्मेलन में 60 देशों ने कार्ययोजना का खाका प्रस्तुत करने वाले दस्तावेज़ पर हस्ताक्षर किए थे।
- इस वर्ष, यह संख्या काफी घटकर केवल 85 में से 35 देशों तक सीमित रही।
- यह गिरावट सैन्य AI के शासन से संबंधित चुनौतियों को दर्शाती है, जो राज्यों की प्रतिबद्धताओं को प्रभावित करती हैं।
युद्ध में AI के उपयोग के पक्ष में तर्क
- सटीकता में वृद्धि और आकस्मिक क्षति में कमी: AI-सक्षम प्रणालियाँ (जैसे स्वायत्त ड्रोन, स्मार्ट मिसाइलें) वास्तविक समय डेटा विश्लेषण और छवि पहचान का उपयोग कर लक्ष्य पहचान में सुधार करती हैं, जिससे नागरिक हताहतों और अनपेक्षित विनाश में कमी आती है।
- आधुनिक युद्धक्षेत्रों में तीव्र निर्णय-निर्माण: AI विशाल युद्धक्षेत्र डेटा (उपग्रह फीड, सेंसर, साइबर इनपुट) को सेकंडों में संसाधित कर सकती है, जिससे उच्च गति वाले युद्ध वातावरण में त्वरित सामरिक निर्णय संभव होते हैं।
- सैनिकों के जोखिम में कमी: AI-संचालित मानव रहित प्रणालियों की तैनाती उच्च-जोखिम अभियानों में प्रत्यक्ष मानवीय जोखिम को न्यूनतम करती है।
- साइबर और सूचना युद्ध क्षमताएँ: AI वास्तविक समय में मैलवेयर और साइबर खतरों का पता लगाकर साइबर रक्षा को सुदृढ़ करती है तथा आक्रामक साइबर क्षमताओं को भी बढ़ा सकती है।
- रणनीतिक प्रतिरोध: उन्नत AI-सक्षम हथियार प्रणालियाँ प्रतिरोध की विश्वसनीयता को बढ़ा सकती हैं, जैसे शीत युद्ध के दौरान तकनीकी श्रेष्ठता ने रणनीतिक संतुलन को प्रभावित किया था।
- नवयुगीन युद्ध के अनुकूलन: आधुनिक संघर्षों में बढ़ते हुए हाइब्रिड युद्ध शामिल होते हैं, AI सेनाओं को विकसित सुरक्षा वातावरण में तकनीकी रूप से प्रतिस्पर्धी बनाए रखती है।
विरोध में तर्क
- नैतिक और आध्यात्मिक चिंताएँ: स्वायत्त हथियार अंतर्राष्ट्रीय मानवीय कानून (IHL) के अंतर्गत मानवता और गरिमा के सिद्धांतों का उल्लंघन कर सकते हैं।
- जवाबदेही: गलत मृत्यु या युद्ध अपराध की स्थिति में यह स्पष्ट नहीं है कि किसे जिम्मेदार ठहराया जाए, क्योंकि वर्तमान ढाँचे (जैसे संयुक्त राष्ट्र और जिनेवा संधियाँ) मुख्यतः मानव निर्णयकर्ताओं के लिए बनाए गए थे।
- एल्गोरिथ्मिक त्रुटियों से नागरिक हताहतों का जोखिम: पक्षपाती डेटा, त्रुटिपूर्ण एल्गोरिथ्म या तकनीकी गड़बड़ी के कारण AI प्रणालियाँ लक्ष्यों की गलत पहचान कर सकती हैं, जिससे अनपेक्षित हानि हो सकती है।
- साइबर हमलों और हैकिंग की संवेदनशीलता: AI-आधारित प्रणालियाँ हैक, हेरफेर या धोखा दिया जा सकती हैं, जिससे उन्नत हथियार अपने ही संचालकों के विरुद्ध प्रयोग हो सकते हैं।
- प्रौद्योगिकी पर निर्भरता और प्रणालीगत विफलताएँ: AI पर अत्यधिक निर्भरता प्रणालीगत कमजोरियाँ उत्पन्न कर सकती है यदि प्रणालियाँ विफल हों, विद्युत बाधित हो या अप्रत्याशित परिस्थितियों का सामना करना पड़े।
आगे की राह
- जिम्मेदार उपयोग का समर्थन: भारत युद्ध में AI के उत्तरदायी और नैतिक उपयोग का समर्थन करता है, और संयुक्त राष्ट्र में चर्चाओं के दौरान अंतर्राष्ट्रीय मानवीय कानून का पालन तथा सार्थक मानवीय नियंत्रण पर बल देता है।
- LAWS पर तत्काल कानूनी प्रतिबंध का विरोध: भारत घातक स्वायत्त हथियार प्रणालियों (LAWS) पर कानूनी रूप से बाध्यकारी संधि को “असमय” मानता है, क्योंकि परिभाषात्मक स्पष्टता का अभाव है और AI तकनीकें तीव्र गति से विकसित हो रही हैं।
- नियामक लचीलापन: AI अनुसंधान एवं विकास में बढ़ते निवेश के साथ भारत यह सुनिश्चित करना चाहता है कि वैश्विक नियम स्वदेशी तकनीकी विकास में बाधा न डालें।
- गैर-बाध्यकारी मानक ढाँचे की प्राथमिकता: भारत जवाबदेही, पारदर्शिता और राज्य की जिम्मेदारी पर केंद्रित सिद्धांत-आधारित, गैर-बाध्यकारी वैश्विक ढाँचे का समर्थन करता है, ताकि बाद में बाध्यकारी व्यवस्था की ओर बढ़ा जा सके।
स्रोत: TH