पाठ्यक्रम: GS3/विज्ञान और प्रौद्योगिकी
सन्दर्भ
- सैन्य क्षेत्र में कृत्रिम बुद्धिमत्ता के जिम्मेदार उपयोग (REAIM) पर शिखर सम्मेलन सियोल, दक्षिण कोरिया में शुरू हो गया है।
परिचय
- यह AI के सैन्य अनुप्रयोगों पर वैश्विक मानदंडों को आकार देने के लिए नई वैश्विक कूटनीति का भाग है।
- शिखर सम्मेलन की मेजबानी केन्या, नीदरलैंड, सिंगापुर और यूनाइटेड किंगडम द्वारा की जा रही है।
- यह शिखर सम्मेलन का दूसरा संस्करण है; पहला 2023 में नीदरलैंड के हेग में हुआ था।
- शिखर सम्मेलन के तीन-स्तरीय उद्देश्य हैं:
- वैश्विक शांति और सुरक्षा पर सैन्य AI के निहितार्थों को समझना,
- सैन्य मामलों में AI प्रणालियों के उपयोग पर नए मानदंडों को लागू करना, और
- सैन्य क्षेत्र में AI के दीर्घकालिक वैश्विक शासन पर विचार विकसित करना।
कृत्रिम बुद्धिमत्ता
- कृत्रिम बुद्धिमत्ता (AI) कंप्यूटर विज्ञान की एक व्यापक शाखा है, जो ऐसी स्मार्ट मशीनों के निर्माण से संबंधित है जो ऐसे कार्य करने में सक्षम हैं जिनके लिए सामान्यतः मानव बुद्धि की आवश्यकता होती है।
- कृत्रिम बुद्धिमत्ता मशीनों को मानव मस्तिष्क की क्षमताओं को मॉडल बनाने या उनमें सुधार करने की अनुमति देती है।
- स्व-चालित कारों के विकास से लेकर ChatGPT और Google के बार्ड जैसे जनरेटिव AI टूल के प्रसार तक, AI तेजी से दैनिक जीवन का हिस्सा बनता जा रहा है – और एक ऐसा क्षेत्र है जिसमें प्रत्येक उद्योग निवेश कर रहा है।
सैन्य क्षेत्र में AI का अनुप्रयोग
- जबकि AI का प्रयोग लंबे समय से प्रमुख सेनाओं द्वारा इन्वेंट्री प्रबंधन और रसद योजना के लिए किया जाता रहा है, पिछले कुछ वर्षों में, युद्ध के मैदान की खुफिया जानकारी, निगरानी और टोही में AI का उपयोग काफी सीमा तक बढ़ गया है।
- प्रमुख सेनाएँ युद्ध के मैदान से विशाल मात्रा में डेटा के संग्रह, संश्लेषण और विश्लेषण को बदलने के लिए AI की क्षमता देखती हैं।
- यह परिस्थितिजन्य जागरूकता बढ़ाने, बल प्रयोग पर निर्णय लेने के लिए उपलब्ध समय बढ़ाने, लक्ष्य निर्धारण में सटीकता बढ़ाने, नागरिक हताहतों की संख्या को सीमित करने तथा युद्ध की गति बढ़ाने में उपयोगी हो सकता है।
- विभिन्न आलोचकों ने चेतावनी दी है कि युद्ध में AI के ये कथित आकर्षण भ्रामक और खतरनाक हो सकते हैं।
- तथाकथित AI निर्णय लेने वाली सहायता प्रणालियों (AI-DSS) का प्रसार और उनके निहितार्थ उन मुद्दों में से हैं जिन पर अब REAIM प्रक्रिया के तहत वाद-विवाद हो रहा है।
विनियमन की आवश्यकता
- इस भय से कि युद्ध का संचालन कंप्यूटर और एल्गोरिदम द्वारा किया जाएगा, इन हथियारों को नियंत्रित करने की मांग उठी थी।
- बल के उपयोग पर निर्णय लेने की प्रक्रिया में मनुष्यों को शामिल रखना इस चर्चा का एक प्रमुख उद्देश्य रहा है।
- 2019 से जिनेवा में संयुक्त राष्ट्र में सरकारी विशेषज्ञों के एक समूह के अंदर घातक स्वायत्त हथियार प्रणालियों (LAWS) से संबंधित मुद्दों पर चर्चा की गई है।
- REAIM प्रक्रिया ने इस बात को मान्यता देकर कि AI सिस्टम युद्ध में पहले से कहीं अधिक अनुप्रयोग पा रहे हैं, बहस को ‘हत्यारे रोबोट’ से आगे बढ़ाकर मुद्दों की एक विस्तृत श्रृंखला तक पहुँचा दिया।
सैन्य मामलों में AI का जिम्मेदार उपयोग
- REAIM प्रक्रिया जिम्मेदार AI को बढ़ावा देने की विभिन्न पहलों में से एक है – राष्ट्रीय, द्विपक्षीय, बहुपक्षीय और बहुपक्षीय।
- अमेरिका ने अपने नाटो सहयोगियों को भी इसी तरह के मानदंड अपनाने के लिए प्रोत्साहित किया है।
- नाटो की 2021 की रणनीति ने AI के जिम्मेदार सैन्य उपयोग के लिए छह सिद्धांतों की पहचान की और अपने बलों के लिए दिशा-निर्देशों का एक समुच्चय प्रस्तुत किया।
- इसका उद्देश्य AI प्रणालियों के उपयोग को “तेज़” करना है जो नाटो के लिए सैन्य लाभ उत्पन्न कर सकते हैं, लेकिन “सुरक्षित और जिम्मेदार” तरीके से।
- विश्व को युद्ध में AI का कम से कम प्रयोग देखने को मिल रहा है; यह ऐतिहासिक प्रवृत्ति के अनुरूप है कि सभी नई प्रौद्योगिकियों को अंततः सैन्य अनुप्रयोग मिलेंगे।
- REAIM प्रक्रिया इसे पहचानती है – और इस तरह के उपयोग से संभावित विनाशकारी परिणामों को देखते हुए, विचार मानदंडों का एक सहमत समुच्चय विकसित करने का है।
Source: IE
Previous article
भारत की सैन्य कूटनीति
Next article
संक्षिप्त समाचार 09-09-2024