हाल ही में, केंद्रीय वित्त मंत्रालय ने डेटा सुरक्षा जोखिमों का हवाला देते हुए सरकारी कर्मचारियों को आधिकारिक डिवाइसेज पर डीपसीक, चैटजीपीटी जैसे AI टूल्स का उपयोग नहीं करने के लिए चेतावनी जारी की है।
गवर्नेंस में AI टूल्स के कुछ उपयोग इस प्रकार हैं:
- नीति-निर्माण हेतु डेटा-आधारित निर्णय लेने में।
- AI-संचालित बॉट्स के माध्यम से जनता तक सेवा पहुंचाने में। जैसे- टैक्स फाइलिंग में, शिकायत निवारण में, आदि।
गवर्नेंस में AI टूल्स के उपयोग से संबंधित चिंताएं
- डेटा सुरक्षा और निजता के उल्लंघन का खतरा: AI मॉडल्स यूजर्स के इनपुट को विदेशों में स्थापित सर्वरों पर प्रोसेस करते हैं। इससे गोपनीय सरकारी डेटा इन टूल्स में संग्रहीत हो जाते हैं। इन डेटा को अनधिकृत तरीके से प्राप्त या दुरुपयोग किया जा सकता है।
- उदाहरण के लिए- 2017 में वानाक्राई रैनसमवेयर अटैक के कारण यूनाइटेड किंगडम की नेशनल हेल्थ सर्विस (NHS) के कार्य-संचालन में बड़े पैमाने पर बाधा उत्पन्न हुई थी।
- पक्षपात और हेरफेर के खतरे: AI मॉडल्स को पूर्वाग्रह वाले डेटा के साथ प्रशिक्षित किया जा सकता है। इससे पक्षपातपूर्ण नीति-निर्माण को बढ़ावा मिल सकता है या फिर किसी देश या समुदाय के प्रति भेदभाव बढ़ सकता है।
- प्रतिस्पर्धी संस्थान या शत्रु देश डेटा पॉइज़निंग अटैक के जरिए AI-आधारित नीतिगत सिफारिशों को प्रभावित कर सकते हैं। दरअसल, डेटा पॉइज़निंग एक प्रकार का साइबर अटैक है, जिसमें अटैकर AI के विकास में उपयोग किए जाने वाले प्रशिक्षण डेटा में हेरफेर कर देते हैं।
- उदाहरण के लिए- संयुक्त राज्य अमेरिका में पूर्वानुमान-आधारित पुलिसिंग एल्गोरिदम पर अश्वेत लोगों के साथ नस्लीय भेदभाव करने का आरोप लगा है।
- जवाबदेही की कमी: AI पर अत्यधिक निर्भरता बढ़ने से निर्णय-लेने में लोगों की जवाबदेही कम हो सकती है। इससे गलतियों के लिए जिम्मेदारी तय करना कठिन हो जाएगा।
- राष्ट्रीय सुरक्षा को खतरा: विदेशी शत्रु शक्तियां AI की कमियों का फायदा उठाकर नीति-निर्माण को प्रभावित कर सकती हैं या जासूसी कर सकती हैं।
- यह विशेष रूप से भारत के लिए चिंताजनक है, क्योंकि अधिकतर AI टूल्स विदेशी कंपनियों द्वारा विकसित किए गए हैं
आगे की राह
|