विज्ञान को सामाजिक तौर पर पक्षपात से बचाने की कवायद
-
आंकड़ों और जानकारी में होता है पूर्वाग्रह
-
इससे फैसले पर भी दूरगामी प्रभाव होता है
-
नई तकनीक से कम पक्षपाती बनायेगा
राष्ट्रीय खबर
रांचीः कृत्रिम बुद्धिमत्ता का प्रयोग बढ़ता ही जा रहा है। इसके बीच ही उसके स्वतंत्र निर्णय लेने की क्षमता पर संदेह व्यक्त किया गया है। दरअसल उसके पास पहले से मौजूद आंकड़ों और जानकारी के आधार पर ही वह निर्णय लेता है। कई बार पूर्व से दिये गये आंकड़ों और सूचनाओं में भी पूर्वाग्रह होता है।
अब इसी वजह से उसे और तटस्थ और सामाजिक पक्षपात से दूर करने की सोच विकसित हो चुकी है। शोधकर्ताओं ने नई प्रशिक्षण तकनीक विकसित की है जिसका उद्देश्य एआई सिस्टम को कम सामाजिक रूप से पक्षपाती बनाना है। ओरेगॉन स्टेट यूनिवर्सिटी के एक डॉक्टरेट छात्र और एडोब के शोधकर्ताओं ने कृत्रिम बुद्धिमत्ता प्रणालियों के लिए एक नई, लागत प्रभावी प्रशिक्षण तकनीक बनाई है जिसका उद्देश्य उन्हें कम सामाजिक रूप से पक्षपाती बनाना है।
ओएसयू कॉलेज ऑफ इंजीनियरिंग के एरिक स्लीमन और एडोब के शोधकर्ता नई पद्धति को फेयरडेडुप कहते हैं, जो फेयर डिडुप्लीकेशन का संक्षिप्त रूप है। डीडुप्लीकेशन का अर्थ है एआई सिस्टम को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा से अनावश्यक जानकारी को हटाना, जो प्रशिक्षण की उच्च कंप्यूटिंग लागत को कम करता है। शोधकर्ताओं ने कहा कि इंटरनेट से प्राप्त डेटासेट में अक्सर समाज में मौजूद पूर्वाग्रह होते हैं। जब उन पूर्वाग्रहों को प्रशिक्षित एआई मॉडल में संहिताबद्ध किया जाता है, तो वे अनुचित विचारों और व्यवहार को कायम रखने में मदद कर सकते हैं।
यह समझकर कि डुप्लिकेशन पूर्वाग्रह प्रसार को कैसे प्रभावित करता है, नकारात्मक प्रभावों को कम करना संभव है – जैसे कि एक एआई सिस्टम स्वचालित रूप से केवल श्वेत पुरुषों की तस्वीरें पेश करता है यदि सीईओ, डॉक्टर, आदि की तस्वीर दिखाने के लिए कहा जाता है। जब इच्छित उपयोग का मामला लोगों के विविध प्रतिनिधित्व को दिखाना है।
स्लीमैन ने कहा, हमने इसे पहले की लागत प्रभावी विधि, सेमडेडुप के लिए शब्दों के एक नाटक के रूप में फेयरडीडुप नाम दिया था, जिसे हमने निष्पक्षता के विचारों को शामिल करके बेहतर बनाया था। हालांकि पिछले काम से पता चला है कि इस अनावश्यक डेटा को हटाने से कम संसाधनों के साथ सटीक एआई प्रशिक्षण संभव हो सकता है, हमने पाया है कि यह प्रक्रिया एआई द्वारा अक्सर सीखे जाने वाले हानिकारक सामाजिक पूर्वाग्रहों को भी बढ़ा सकती है।
स्लीमैन ने पिछले सप्ताह सिएटल में कंप्यूटर विजन और पैटर्न पहचान पर आईईईई/सीवीएफ सम्मेलन में फेयरडीडुप एल्गोरिदम प्रस्तुत किया। फेयरडीडुप प्रूनिंग नामक प्रक्रिया के माध्यम से वेब से एकत्र किए गए छवि कैप्शन के डेटासेट को पतला करके काम करता है। प्रूनिंग से तात्पर्य डेटा के एक सबसेट को चुनने से है जो संपूर्ण डेटासेट का प्रतिनिधि है, और यदि सामग्री-जागरूक तरीके से किया जाता है, तो प्रूनिंग इस बारे में सूचित निर्णय लेने की अनुमति देता है कि डेटा के कौन से हिस्से रहते हैं और कौन से जाते हैं।
स्लीमैन ने कहा, फेयरडेडुप पूर्वाग्रहों को कम करने के लिए विविधता के नियंत्रणीय, मानव-परिभाषित आयामों को शामिल करते हुए अनावश्यक डेटा को हटा देता है। हमारा दृष्टिकोण एआई प्रशिक्षण को सक्षम बनाता है जो न केवल लागत प्रभावी और सटीक है बल्कि अधिक निष्पक्ष भी है। व्यवसाय, नस्ल और लिंग के अलावा, प्रशिक्षण के दौरान कायम रहने वाले अन्य पूर्वाग्रहों में उम्र, भूगोल और संस्कृति से संबंधित पूर्वाग्रह शामिल हो सकते हैं।
स्लीमैन ने कहा, डेटासेट प्रूनिंग के दौरान पूर्वाग्रहों को संबोधित करके, हम एआई सिस्टम बना सकते हैं जो सामाजिक रूप से अधिक न्यायसंगत हैं। हमारा काम एआई को निष्पक्षता की हमारी अपनी निर्धारित धारणा का पालन करने के लिए मजबूर नहीं करता है, बल्कि एआई को कुछ सेटिंग्स और उपयोगकर्ता आधारों के भीतर प्रासंगिक होने पर निष्पक्ष रूप से कार्य करने के लिए प्रेरित करने का एक मार्ग बनाता है जिसमें इसे तैनात किया गया है। हम लोगों को यह परिभाषित करने देते हैं कि उनकी सेटिंग में क्या उचित है इंटरनेट या अन्य बड़े पैमाने के डेटासेट के बजाय यह तय करना उसका काम है।