Breaking News in Hindi

कानून से निजता की वाकई सुरक्षा हो

भारत में डेटा सुरक्षा कानून संभवतः आगामी मॉनसून सत्र में पारित हो जाएगा। केंद्रीय कैबिनेट ने इस बिल को मंजूरी दे दी है। दरअसल इस बारे में निजता की सुरक्षा के दावे किये गये हैं और यह अब शायद बदलते युग की मांग भी है। फिर भी कानून में चोर दरवाजे हैं अथवा नहीं यह तो कानून के लागू होने के बाद ही पता चलेगा।

हम एक चौथी औद्योगिक क्रांति में कदम रख चुके हैं। यह दौर आर्टिफिशियल इंटेलिजेंस का है, जिसके बारे में उम्मीदें और आशंकाएं दोनों हैं। इंटरनेट की दुनिया में हमारे निजी डाटा का इस्तेमाल करके हमारी सोचने समझने की शक्ति को नियंत्रित करने की कोशिश की जा रही है। जेनरेटिव एआई की प्रगति को देखते हुए डेटा सुरक्षा का विषय और गंभीर हो गया है।

भारत को भी इस संबंध में कानून तैयार कर इनका क्रियान्वयन करना चाहिए। पिछले आधे दशक में आर्टिफिशल इंटेलिजेंस के क्षेत्र में काफी प्रगति हुई है। अब गणना करने की क्षमता और आंकड़ों की उपलब्धता दोनों ही बढ़ गई हैं। पिछले साल नवंबर में ओपनएआई ने चैटजीपीटी और डॉल-ई शुरू किया और लोगों को यह दिखाया कि ये स्वाभाविक एवं सरल भाषा में कमांड देने पर क्या परिणाम ला सकते हैं।

पलक झपकते ही चैटजीपीटी और एआई लोगों के घरों और दफ्तरों में चर्चा के प्रमुख केंद्र बन गए। लोग चैटजीपीटी का इस्तेमाल करने के लिए आतुर हो गए और कई लोग तो इसकी क्षमताएं देखकर अचंभित रह गए। जिन लोगों को कुछ समय पहले तक एआई के बारे में बहुत जानकारी नहीं थी वे भी जेनरेटिव एआई, लार्ज लैंग्वेज मॉडल्स (एलएलएम), जेनरेटिव एडवर्सरियल नेटवर्क्स (जीएएन) और ह्यूरिस्टिक्स की चर्चा करने लगे। खूबियों के साथ ही एआई की क्षमताओं एवं जोखिमों पर भी बातें होने लगीं।

कुछ लोगों ने कहा कि एआई से कई महत्त्वपूर्ण उपलब्धियां हासिल होंगी और मानव की कई समस्याओं का समाधान हो जाएगा। कुछ दूसरे लोगों ने एआई को लेकर डरावनी तस्वीर पेश की और कहना शुरू कर दिया कि यह मानव के लिए जलवायु परिवर्तन से भी बड़ा खतरा साबित होगा। ज्यादातर एआई प्रोग्राम और अल्गोरिद्म आंकड़ों के एक बड़े समूह का अध्ययन करने के बाद सीखे-समझे जाते हैं। इसे बेहतर तरीके से समझने के लिए एक ऐसे व्यक्ति का उदाहरण लेते हैं जो कोई विषय सीखने का प्रयास कर रहा है।

कोई व्यक्ति किसी विषय पर जितनी सामग्री का अध्ययन करता है और जितनी बार उन्हें पढ़ता है उतना ही फायदा मिलता है। यही कारण है कि जिस डेटा या सामग्री से एआई एल्गोरिद्म सीखता है वह इसकी सफलता या विफलता के लिए अत्यंत आवश्यक हो जाता है। डेटा जितना बड़ा एवं बेहतर होगा एआई प्रोग्राम उतना ही बेहतर सीख पाएगा, बशर्ते कि शोधकर्ताओं का अल्गोरिद्म सही हो।

यही कारण है कि लार्ज लैंग्वेज मॉडल और जेनरेटिव एआई प्रोग्राम के लिए उच्च गुणवत्ता वाले डेटा महत्त्वपूर्ण होते हैं। ओपनएआई एवं चैटजीपीटी की घर-घर चर्चा शुरू होने और लोगों के जेहन में एलएलएम और जेनरेटिव एआई के आने से पहले ही दुनिया भर में नीति निर्धारक नागरिकों की निजी जानकारियों की सुरक्षा को लेकर चिंतित होने लगे थे।

इस चिंता का कारण यह था कि बड़ी कंपनियां निःशुल्क सेवाएं या काफी सस्ती सेवाएं देकर लोगों से उनकी संवेदनशील जानकारियां बटोर रही थीं। उदाहरण के लिए गूगल की खोज सेवा इसलिए निःशुल्क है क्योंकि यह यूजर से संग्रहीत आंकड़ों के आधार पर विज्ञापन से काफी रकम कमा रही है। फेसबुक, इंस्टाग्राम, ट्विटर और अन्य सोशल मीडिया प्लेटफॉर्म के मामले में भी यही बात लागू होती है।

जो कंपनियां- जैसे एमेजॉन और ऐपल- निःशुल्क सेवाएं नहीं देती हैं वे भी आपसे सारी सूचनाएं ले रही हैं। आप जितनी बार इनका इस्तेमाल करते हैं उतनी बार ये आप से आपसे जुड़ी जानकारियां ले लेती हैं। इन चिंताओं के बीच कई देशों में डेटा सुरक्षा कानून बनाए गए और डेटा से जुड़े विषयों से निपटने के लिए इनमें संशोधन किए गए। हाल में जेनरेटिव एआई में प्रगति को देखते हुए यह विषय और गंभीर हो गया है। इसे देखते हुए चीन से लेकर यूरोपीय संघ तक के देश एआई के नियमन की बातें करने लगे हैं।

चीन के बाद भारत डिजिटल डेटा सृजित करने वाला दुनिया का संभवतः दूसरा सबसे बड़ा देश है। हमारी बढ़ती आबादी और ब्रॉडबैंड एवं डिजिटल सेवाओं पर सरकार के जोर के बीच यह संभव हो गया है। मगर एक देश के रूप में डेटा निजता की सुरक्षा के लिए नियम तय करने में भी हम पीछे रहे हैं। डेटा सुरक्षा एवं निजता कानून के मसौदे भी ठीक तरीके से तैयार नहीं किए गए हैं। इस संबंध में एक और मसौदा तैयार है और संसद में यह जल्द ही प्रस्तुत किया जाएगा। इसमें फिर से यह सवाल बना रहेगा कि नये कानून को लागू करने के बाद भी लोगों की निजता कितनी सुरक्षित रहेगी क्योंकि केंद्र सरकार के दावों के बाद भी कोविड डेटा लीक होने की ताजी घटना हमारे सामने है।

Leave A Reply

Your email address will not be published.