सैन्य कृत्रिम बुद्धिमत्ता का शासन
भारत ने REAIM शिखर सम्मेलन में युद्ध में कृत्रिम बुद्धिमत्ता (AI) के संचालन के लिए प्रतिज्ञा पत्र पर हस्ताक्षर करने से परहेज किया, और राष्ट्रीय सुरक्षा पर इसके प्रभावों के कारण सैन्य AI विनियमन को प्राथमिकता देने की आवश्यकता पर प्रकाश डाला।
- लगभग एक तिहाई देशों ने 'पाथवेज टू एक्शन' घोषणा-पत्र पर हस्ताक्षर किए; उल्लेखनीय रूप से अनुपस्थित देशों में अमेरिका, भारत और चीन शामिल हैं।
- हस्ताक्षरकर्ताओं की संख्या में गिरावट सैन्य AI प्रशासन में चुनौतियों को रेखांकित करती है।
सैन्य कृत्रिम बुद्धिमत्ता के संचालन में चुनौतियाँ
- एआई एक दोहरे उपयोग वाली तकनीक है, जो अनुपालन सत्यापन को जटिल बनाती है।
- सैन्य लाभों की धारणा विनियमन को हतोत्साहित करती है, जिसके परिणामस्वरूप नागरिक और सैन्य उपयोग के लिए एआई में महत्वपूर्ण निवेश किया जाता है।
- घातक स्वायत्त हथियार प्रणालियाँ (LAWS) विवादास्पद बनी हुई हैं, और इनकी परिभाषाओं या नियमों पर कोई अंतरराष्ट्रीय सहमति नहीं है।
भारत की स्थिति
सैन्य कृत्रिम बुद्धिमत्ता पर भारत का रुख उसकी आर्थिक और सुरक्षा प्राथमिकताओं को दर्शाता है, जिसमें जिम्मेदार उपयोग पर जोर दिया गया है लेकिन बाध्यकारी प्रतिबद्धताओं से परहेज किया गया है।
- भारत ने सैन्य कृत्रिम बुद्धिमत्ता में इसके सीमित ज्ञात उपयोग के कारण LAWS पर बाध्यकारी दस्तावेज को "अपरिपक्व" बताया है।
- प्रतिबंधों के पक्ष में नैतिक तर्क कमजोर हैं; पारदर्शिता और सुरक्षा के लिए एक गैर-बाध्यकारी तंत्र का प्रस्ताव किया गया है।
एआई शासन के लिए प्रस्तावित प्रावधान
- परमाणु बलों के लिए निर्णय लेने में कृत्रिम बुद्धिमत्ता (AI) का बहिष्कार ।
- कृत्रिम बुद्धिमत्ता विकास डेटा साझा करने के लिए स्वैच्छिक विश्वास-निर्माण तंत्र।
- सैन्य एआई उपयोग मामलों के लिए स्वीकृत जोखिम पदानुक्रम का निर्माण।
निष्कर्ष
भारत को जवाबदेही और सुरक्षा सुनिश्चित करने के लिए एक गैर-बाध्यकारी ढांचे की वकालत करनी चाहिए। जैसे-जैसे कृत्रिम बुद्धिमत्ता प्रगति करेगी, मानदंड स्थापित करने से कानूनी रूप से बाध्यकारी ढांचे का निर्माण हो सकता है।