यह श्वेत पत्र न्यायपालिका में कृत्रिम बुद्धिमत्ता (AI) के सुरक्षित उपयोग की समीक्षा करता है; नैतिकता संबंधी प्रमुख चुनौतियों को रेखांकित करता है; सिफारिशें प्रदान करता है; तथा AI संबंधी उभरते जोखिमों को दर्शाने के लिए अंतर्राष्ट्रीय केस स्टडीज़ का उपयोग करता है।
रिपोर्ट के मुख्य बिंदुओं पर एक नजर
- AI के जोखिम और नैतिकता संबंधी चुनौतियां
- अत्यधिक निर्भरता और मानवीय निर्णय का ह्रास: यह न्यायिक विवेक को कमजोर कर सकता है। AI मॉडल्स की अपारदर्शी प्रकृति जवाबदेही को कम कर सकती है।
- मतिभ्रम और मनगढ़ंत कंटेंट: यह झूठी जानकारी या गैर-मौजूद उद्धरण उत्पन्न कर सकता है। उदाहरण के लिए: “रॉबर्टो मैटा बनाम एविएंका और कूमर बनाम लिंडेल” जैसे अमेरिकी मामले।
- एल्गोरिदम संबंधी पूर्वाग्रह: उदाहरण के लिए: संयुक्त राज्य अमेरिका का COMPAS टूल, जिसे स्टेट बनाम लूमिस मामले में चुनौती दी गई थी। इस टूल में संभावित नस्लीय पूर्वाग्रह देखा गया था।
- अन्य: डीपफेक और साक्ष्य में हेरफेर; गोपनीयता एवं निजता संबंधी जोखिम; बौद्धिक संपदा संबंधी चिंताएं आदि।
रिपोर्ट में की गई मुख्य सिफारिशें
- AI नैतिकता समितियां बनाना: AI टूल्स की समीक्षा करने और उनके उपयोग मानक निर्धारित करने के लिए अदालतों को तकनीकी एवं कानूनी विशेषज्ञों के साथ निकाय स्थापित करने चाहिए।
- सुरक्षित आंतरिक (In-House) AI प्रणालियों को प्राथमिकता देना: आंतरिक उपकरण विकसित करने से गोपनीयता, सुरक्षा और डेटा-प्रकटीकरण संबंधी जोखिम कम होते हैं।
- औपचारिक नैतिक AI नीति अपनाना: एक ऐसा स्पष्ट फ्रेमवर्क विकसित करना चाहिए, जो अधिकृत उपयोगों, जिम्मेदारियों और जवाबदेही तंत्रों को परिभाषित करे।
- अन्य: प्रकटीकरण और ऑडिट ट्रेल्स को अनिवार्य करना चाहिए, व्यापक प्रशिक्षण प्रदान करना चाहिए आदि।
AI संबंधी प्रमुख पहलें
|