उच्चतम न्यायालय के सेंटर फॉर रिसर्च एंड प्लानिंग ने “कृत्रिम बुद्धिमत्ता और न्यायपालिका पर श्वेत पत्र (White Paper)” जारी किया | Current Affairs | Vision IAS
मेनू
होम

यूपीएससी सिविल सेवा परीक्षा के लिए प्रासंगिक राष्ट्रीय और अंतर्राष्ट्रीय विकास पर समय-समय पर तैयार किए गए लेख और अपडेट।

त्वरित लिंक

High-quality MCQs and Mains Answer Writing to sharpen skills and reinforce learning every day.

महत्वपूर्ण यूपीएससी विषयों पर डीप डाइव, मास्टर क्लासेस आदि जैसी पहलों के तहत व्याख्यात्मक और विषयगत अवधारणा-निर्माण वीडियो देखें।

करंट अफेयर्स कार्यक्रम

यूपीएससी की तैयारी के लिए हमारे सभी प्रमुख, आधार और उन्नत पाठ्यक्रमों का एक व्यापक अवलोकन।

ESC

In Summary

रिपोर्ट में न्यायपालिका में एआई के नैतिक जोखिमों पर प्रकाश डाला गया है, नैतिक ढांचे की सिफारिश की गई है, तथा ई-कोर्ट जैसी भारत की पहलों को प्रदर्शित किया गया है, साथ ही एआई के उपयोग में वैश्विक मानकों और चुनौतियों का भी उल्लेख किया गया है।

In Summary

यह श्वेत पत्र न्यायपालिका में कृत्रिम बुद्धिमत्ता (AI) के सुरक्षित उपयोग की समीक्षा करता है; नैतिकता संबंधी प्रमुख चुनौतियों को रेखांकित करता है; सिफारिशें प्रदान करता है; तथा AI संबंधी उभरते जोखिमों को दर्शाने के लिए अंतर्राष्ट्रीय केस स्टडीज़ का उपयोग करता है।

रिपोर्ट के मुख्य बिंदुओं पर एक नजर

  • AI के जोखिम और नैतिकता संबंधी चुनौतियां
    • अत्यधिक निर्भरता और मानवीय निर्णय का ह्रास: यह न्यायिक विवेक को कमजोर कर सकता है। AI मॉडल्स की अपारदर्शी प्रकृति जवाबदेही को कम कर सकती है।
    • मतिभ्रम और मनगढ़ंत कंटेंट: यह झूठी जानकारी या गैर-मौजूद उद्धरण उत्पन्न कर सकता है। उदाहरण के लिए: “रॉबर्टो मैटा बनाम एविएंका और कूमर बनाम लिंडेल” जैसे अमेरिकी मामले।
    • एल्गोरिदम संबंधी पूर्वाग्रह: उदाहरण के लिए: संयुक्त राज्य अमेरिका का COMPAS टूल, जिसे स्टेट बनाम लूमिस मामले में चुनौती दी गई थी। इस टूल में संभावित नस्लीय पूर्वाग्रह देखा गया था। 
    • अन्य: डीपफेक और साक्ष्य में हेरफेर; गोपनीयता एवं निजता संबंधी जोखिम; बौद्धिक संपदा संबंधी चिंताएं आदि।

रिपोर्ट में की गई मुख्य सिफारिशें

  • AI नैतिकता समितियां बनाना: AI टूल्स की समीक्षा करने और उनके उपयोग मानक निर्धारित करने के लिए अदालतों को तकनीकी एवं कानूनी विशेषज्ञों के साथ निकाय स्थापित करने चाहिए।
  • सुरक्षित आंतरिक (In-House) AI प्रणालियों को प्राथमिकता देना: आंतरिक उपकरण विकसित करने से गोपनीयता, सुरक्षा और डेटा-प्रकटीकरण संबंधी जोखिम कम होते हैं।
  • औपचारिक नैतिक AI नीति अपनाना: एक ऐसा स्पष्ट फ्रेमवर्क विकसित करना चाहिए, जो अधिकृत उपयोगों, जिम्मेदारियों और जवाबदेही तंत्रों को परिभाषित करे।
  • अन्य: प्रकटीकरण और ऑडिट ट्रेल्स को अनिवार्य करना चाहिए, व्यापक प्रशिक्षण प्रदान करना चाहिए आदि।

AI संबंधी प्रमुख पहलें 

  • भारत:
    • ई-कोर्ट्स मिशन मोड परियोजना: लंबित मामलों, भाषाई बाधाओं और प्रशासनिक देरी से निपटने के लिए AI उपकरण विकसित करना।
    • SUPACE (सुप्रीम कोर्ट पोर्टल फॉर असिस्टेंस इन कोर्ट एफिशिएंसी): यह न्यायाधीशों को केस रिकॉर्ड का विश्लेषण करने और सारांश (summaries) बनाने में मदद करता है।
    • SUVAS (सुप्रीम कोर्ट विधिक अनुवाद सॉफ्टवेयर): इसने उच्चतम न्यायालय के 36,000 से अधिक निर्णयों का 19 भारतीय भाषाओं में अनुवाद किया है।
    • अन्य: TERES (एआई-आधारित प्रतिलेखन/ Transcription), LegRAA (विधिक अनुसंधान विश्लेषण सहायक)।
  • वैश्विक:
    • यूनेस्को: इसने AI की नैतिकता पर सिफारिशें जारी की हैं तथा AI और विधि के शासन पर वैश्विक टूलकिट प्रकाशित किया है।
    • आर्थिक सहयोग और विकास संगठन (OECD): इसने कृत्रिम बुद्धिमत्ता पर सिद्धांत (2019) प्रकाशित किए हैं, जो AI के लिए प्रथम अंतर-सरकारी मानक स्थापित करते हैं।
    • यूरोपीय संघ (EU): यूरोपीय संघ का AI अधिनियम उच्च जोखिम वाली न्यायिक AI प्रणालियों को विनियमित करता है।
    • राष्ट्रीय मॉडल: ब्राजील का ATHOS, सिंगापुर का LawNet AI आदि।
Watch Video News Today
Title is required. Maximum 500 characters.

Search Notes

Filter Notes

Loading your notes...
Searching your notes...
Loading more notes...
You've reached the end of your notes

No notes yet

Create your first note to get started.

No notes found

Try adjusting your search criteria or clear the search.

Saving...
Saved

Please select a subject.

Referenced Articles

linked

No references added yet