मानवजनित घटना और AI से जुड़ी राष्ट्रीय सुरक्षा चिंताएँ
एन्थ्रोपिक घटना कृत्रिम बुद्धिमत्ता के विकास और राष्ट्रीय सुरक्षा से जुड़ी गंभीर चिंताओं को उजागर करती है। अमेरिकी कृत्रिम बुद्धिमत्ता प्रयोगशाला एन्थ्रोपिक तीन चीनी कृत्रिम बुद्धिमत्ता प्रयोगशालाओं - डीपसीक, मूनशॉटAI और मिनीमैक्स - को राष्ट्रीय सुरक्षा के लिए खतरा घोषित करने की मांग कर रही है। यह आरोप इन प्रयोगशालाओं पर लगे हैं कि उन्होंने अमेरिकी कंपनियों से अत्याधुनिक कृत्रिम बुद्धिमत्ता मॉडल चुराए हैं और अपनी गतिविधियों को छिपाने के लिए धोखे का सहारा लिया है।
प्रमुख घटनाक्रम
- सुर्ख़ियों के मुताबिक, अमेरिकी सेना ने सैन्य अभियानों में एंथ्रोपिक और अन्य प्रयोगशालाओं के एआई मॉडल का इस्तेमाल किया, जिससे लक्ष्य की पहचान से लेकर हमले तक की प्रक्रियाओं में तेजी आई।
- पेंटागन ने एंथ्रोपिक को "आपूर्ति श्रृंखला" जोखिम के रूप में वर्गीकृत किया है, यह दर्जा आमतौर पर विदेशी दुश्मनों के लिए आरक्षित होता है, जिससे सैन्य अभियानों में इसकी तकनीक के उपयोग के बारे में चिंताएं बढ़ गई हैं।
- इस पदनाम को वर्तमान में अदालत में चुनौती दी जा रही है।
AI विकास के लिए निहितार्थ
- परमाणु प्रौद्योगिकियों के विपरीत, AI मॉडल दोहरे उपयोग वाले होते हैं और अर्धचालकों के समान होते हैं, जिनका सैन्य और नागरिक दोनों अनुप्रयोगों में उपयोग होता है।
- प्रतिबंध और निर्यात नियंत्रण अप्रभावी हैं, जैसा कि डीपसीक द्वारा प्रतिबंध के बाद कम लागत पर तुलनीय मॉडल प्रदर्शन प्राप्त करने से प्रदर्शित होता है।
- कृत्रिम बुद्धिमत्ता से संबंधित प्रश्नों को हथियारों के प्रसार के बराबर बताने वाली बात का कोई ठोस आधार नहीं है, खासकर तब जब अमेरिकी प्रयोगशालाओं के मॉडल का उपयोग सैन्य उद्देश्यों के लिए किया जाता है।
कृत्रिम बुद्धिमत्ता प्रौद्योगिकी को प्रतिबंधित करने में चुनौतियाँ
- प्रतिभाओं की गतिशीलता और सेमीकंडक्टर संबंधी प्रतिबंधों को दरकिनार करने के कारण एआई के प्रसार को नियंत्रित करना चुनौतीपूर्ण है।
- कृत्रिम बुद्धिमत्ता (AI) मॉडल बनाने की एक तकनीक, आसवन (डिस्टिलेशन), एक नई चुनौती पेश करती है, और प्रतिबंधों के बावजूद वैकल्पिक समाधान सामने आ रहे हैं।
शासन और नैतिक चिंताएँ
- मौजूदा प्रतिबंध नवाचार और आर्थिक विकास को बाधित कर सकते हैं, जिससे कुछ अमेरिकी कंपनियों के हाथों में सत्ता का केंद्रीकरण हो सकता है।
- कृत्रिम बुद्धिमत्ता के मॉडल को अक्सर कई व्यक्तियों की रचनात्मक कृतियों पर बिना सहमति के प्रशिक्षित किया जाता है, इसलिए आसवन को बौद्धिक संपदा की चोरी के बराबर मानना गलत है।
- नैतिक प्रथाओं को सुनिश्चित करने के लिए एआई उद्योग, क्लाउड प्रदाताओं और नीति निर्माताओं के बीच एक समन्वित प्रतिक्रिया की आवश्यकता है।
जिम्मेदार एआई उपयोग के लिए अनुशंसाएँ
- कृत्रिम बुद्धिमत्ता के जिम्मेदार उपयोग के लिए राज्यों द्वारा बहुपक्षीय प्रतिबद्धताओं की आवश्यकता है, ताकि घातक निर्णयों पर मानवीय नियंत्रण सुनिश्चित किया जा सके और बड़े पैमाने पर नागरिक निगरानी पर रोक लगाई जा सके।
- कॉर्पोरेट सुरक्षा उपाय अपर्याप्त हैं; प्रभावी शासन के लिए नैतिक मानकों और प्रथाओं के प्रति सार्वभौमिक प्रतिबद्धताओं की आवश्यकता होती है।