नई दिल्ली, 27 फरवरी। राष्ट्रीय मानवाधिकार आयोग (एनएचआरसी) ने कृत्रिम बुद्धिमत्ता (एआई) आधारित शिक्षा पहल में बच्चों के व्यक्तिगत डाटा की सुरक्षा को लेकर गंभीर चिंता जताई है। आयोग ने केंद्रीय इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय, स्कूल शिक्षा और साक्षरता विभाग, उच्च शिक्षा विभाग तथा सभी राज्यों और केंद्र शासित प्रदेशों को नोटिस जारी कर दो सप्ताह में कार्रवाई रिपोर्ट (एटीआर) मांगी है।
एनएचआरसी के सदस्य प्रियंक कानूनगो की अध्यक्षता वाली पीठ ने धारा 8 के तहत पंजीकृत गैर-लाभकारी कंपनी नामो फाउंडेशन की शिकायत पर संज्ञान लिया। शिकायत में अमेरिका स्थित एआई कंपनी और शिक्षा क्षेत्र में कार्यरत एनजीओ के बीच सहयोग को लेकर बच्चों की निजता पर खतरे की आशंका जताई गई।
शिकायत के अनुसार, इस साझेदारी के तहत ‘एनीटाइम टेस्टिंग मशीन (एटीएम) नामक एआई-आधारित प्रणाली का उपयोग किया जा रहा है। यह प्रणाली बच्चों की हस्तलिखित उत्तर पुस्तिकाओं और शैक्षणिक डाटा को प्रोसेस करने के लिए तैयार की गई है।
आरोप है कि इस प्रक्रिया में नाबालिगों के व्यक्तिगत डाटा का संग्रह, भंडारण, विश्लेषण और संभावित सीमा-पार हस्तांतरण हो सकता है, जिससे उनकी गोपनीयता प्रभावित हो सकती है।
शिकायतकर्ता ने डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम, 2023 (डीपीडीपी अधिनियम, 2023) के प्रावधानों के तहत डेटा उल्लंघन के जोखिमों की ओर इशारा किया है। डीपीडीपी अधिनियम के तहत प्रथम-एंथ्रोपिक एआई सहयोग में डाटा उल्लंघन के जोखिमों का आकलन शीर्षक रिपोर्ट का हवाला देते हुए कहा गया कि यदि पर्याप्त सुरक्षा उपाय नहीं अपनाए गए तो बच्चों की संवेदनशील जानकारी का दुरुपयोग हो सकता है।
आयोग ने कहा कि यदि आरोप सही पाए जाते हैं तो यह नाबालिगों की निजता और सुरक्षा से जुड़े मानवाधिकारों के उल्लंघन का मामला बन सकता है।
डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम, 2023 की धारा 12 के तहत जारी नोटिस में सभी मुख्य सचिवों और केंद्र शासित प्रदेशों के प्रशासकों को निर्देश दिया गया है कि वे जांच सुनिश्चित करें और यह देखें कि किसी भी सरकारी या गैर-सरकारी संस्था द्वारा एकत्रित डाटा का दुरुपयोग न हो।
राज्य सरकारों से ऐसे संगठनों के साथ किए गए एमओयू और समझौतों की समीक्षा करने को भी कहा गया है। आयोग ने स्पष्ट किया है कि शिक्षा क्षेत्र में एआई के उपयोग को लेकर मजबूत डाटा सुरक्षा ढांचा और पारदर्शिता अनिवार्य है।