केंद्र सरकार ने सरकारी डिवाइसेज पर आर्टिफिशियल इंटेलिजेंस (AI) टूल्स के उपयोग के प्रति कर्मचारियों को आगाह किया | Current Affairs | Vision IAS
मेनू
होम

यूपीएससी सिविल सेवा परीक्षा के लिए प्रासंगिक राष्ट्रीय और अंतर्राष्ट्रीय विकास पर समय-समय पर तैयार किए गए लेख और अपडेट।

त्वरित लिंक

High-quality MCQs and Mains Answer Writing to sharpen skills and reinforce learning every day.

महत्वपूर्ण यूपीएससी विषयों पर डीप डाइव, मास्टर क्लासेस आदि जैसी पहलों के तहत व्याख्यात्मक और विषयगत अवधारणा-निर्माण वीडियो देखें।

करंट अफेयर्स कार्यक्रम

यूपीएससी की तैयारी के लिए हमारे सभी प्रमुख, आधार और उन्नत पाठ्यक्रमों का एक व्यापक अवलोकन।

ESC

हाल ही में, केंद्रीय वित्त मंत्रालय ने डेटा सुरक्षा जोखिमों का हवाला देते हुए सरकारी कर्मचारियों को आधिकारिक डिवाइसेज पर डीपसीक, चैटजीपीटी जैसे AI टूल्स का उपयोग नहीं करने के लिए चेतावनी जारी की है। 

गवर्नेंस में AI टूल्स के कुछ उपयोग इस प्रकार हैं:

  • नीति-निर्माण हेतु डेटा-आधारित निर्णय लेने में।
  • AI-संचालित बॉट्स के माध्यम से जनता तक सेवा पहुंचाने में। जैसे- टैक्स फाइलिंग में, शिकायत निवारण में, आदि।   

गवर्नेंस में AI टूल्स के उपयोग से संबंधित चिंताएं

  • डेटा सुरक्षा और निजता के उल्लंघन का खतरा: AI मॉडल्स यूजर्स के इनपुट को विदेशों में स्थापित सर्वरों पर प्रोसेस करते हैं। इससे गोपनीय सरकारी डेटा इन टूल्स में संग्रहीत हो जाते हैं। इन डेटा को अनधिकृत तरीके से प्राप्त या दुरुपयोग किया जा सकता है। 
    • उदाहरण के लिए- 2017 में वानाक्राई रैनसमवेयर अटैक के कारण यूनाइटेड किंगडम की नेशनल हेल्थ सर्विस (NHS) के कार्य-संचालन में बड़े पैमाने पर बाधा उत्पन्न हुई थी।  
  • पक्षपात और हेरफेर के खतरे: AI मॉडल्स को पूर्वाग्रह वाले डेटा के साथ प्रशिक्षित किया जा सकता है। इससे पक्षपातपूर्ण नीति-निर्माण को बढ़ावा मिल सकता है या फिर किसी देश या समुदाय के प्रति भेदभाव बढ़ सकता है।
    • प्रतिस्पर्धी संस्थान या शत्रु देश डेटा पॉइज़निंग अटैक के जरिए AI-आधारित नीतिगत सिफारिशों को प्रभावित कर सकते हैं। दरअसल, डेटा पॉइज़निंग एक प्रकार का साइबर अटैक है, जिसमें अटैकर AI के विकास में उपयोग किए जाने वाले प्रशिक्षण डेटा में हेरफेर कर देते हैं।
    • उदाहरण के लिए- संयुक्त राज्य अमेरिका में पूर्वानुमान-आधारित पुलिसिंग एल्गोरिदम पर अश्वेत लोगों के साथ नस्लीय भेदभाव करने का आरोप लगा है।
  • जवाबदेही की कमी: AI पर अत्यधिक निर्भरता बढ़ने से निर्णय-लेने में लोगों की जवाबदेही कम हो सकती है। इससे गलतियों के लिए जिम्मेदारी तय करना कठिन हो जाएगा।
  • राष्ट्रीय सुरक्षा को खतरा: विदेशी शत्रु शक्तियां AI की कमियों का फायदा उठाकर नीति-निर्माण को प्रभावित कर सकती हैं या जासूसी कर सकती हैं। 
    • यह विशेष रूप से भारत के लिए चिंताजनक है, क्योंकि अधिकतर AI टूल्स विदेशी कंपनियों द्वारा विकसित किए गए हैं 

आगे की राह

  • सॉवरेन AI: इससे आशय एक राष्ट्र की अपनी आधारभूत संरचना, प्रशिक्षण और अनुसंधान के उपयोग से AI मॉडल्स विकसित करने की क्षमता से है।
  • भारत सरकार ने 10,000 करोड़ रुपये के बजट के साथ आर्टिफिशियल इंटेलिजेंस (AI) कंप्यूटिंग मिशन योजना की घोषणा की है।
  • AI गवर्नेंस फ्रेमवर्क को मजबूत करना: इसे नीति आयोग के "सभी के लिए जिम्मेदार AI" फ्रेमवर्क और डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 के कानूनी प्रावधानों के अनुरूप मजबूत करने की जरूरत है।
  • मानव द्वारा निगरानी और जवाबदेही: AI में "ह्यूमन-इन-द-लूप" (HITL) मॉडल को लागू करना चाहिए। इससे महत्वपूर्ण निर्णयों में मानव द्वारा निगरानी सुनिश्चित होगी।
Watch Video News Today

Explore Related Content

Discover more articles, videos, and terms related to this topic

RELATED VIDEOS

3
न्यूज़ टुडे | डेली करेंट अफेयर्स | 5 और 6 फरवरी, 2025

न्यूज़ टुडे | डेली करेंट अफेयर्स | 5 और 6 फरवरी, 2025

YouTube HD
न्यूज़ टुडे |7 अक्टूबर, 2025

न्यूज़ टुडे |7 अक्टूबर, 2025

YouTube HD
न्यूज़ टुडे |7 अक्टूबर, 2025

न्यूज़ टुडे |7 अक्टूबर, 2025

YouTube HD
Title is required. Maximum 500 characters.

Search Notes

Filter Notes

Loading your notes...
Searching your notes...
Loading more notes...
You've reached the end of your notes

No notes yet

Create your first note to get started.

No notes found

Try adjusting your search criteria or clear the search.

Saving...
Saved

Please select a subject.

Referenced Articles

linked

No references added yet