Breaking News in Hindi

इंसानी सोच पर हावी होती कृत्रिम बुद्धिमत्ता की तकनीक

सही फैसले को बदल दिया रोबोट ने

  • मानव ने पहले अपना फैसला बदला

  • जब गंभीर चुनौती आयी तो सही किया

  • ए आई कई बार गलत सुझाव भी दे सकता है

राष्ट्रीय खबर

रांचीः दुनिया भर के लोगों को वैज्ञानिकों ने फिर से आगाह किया है। यह चेतावनी कृत्रिम बुद्धिमत्ता को लेकर आयी है। वैज्ञानिकों ने एक परीक्षण में पाया है कि लोगों ने निजी तौर पर सही फैसला लिया था पर रोबोट का फैसला बदला, जो गलत था।

यानी ऐसा माना जा सकता है कि जीवन या मृत्यु के विकल्प का सामना कर रहे लोग एआई पर बहुत अधिक भरोसा करते हैं। यूसी मर्सिड अध्ययन में नकली जीवन-या-मृत्यु निर्णयों में, लगभग दो-तिहाई लोगों ने रोबोट को अपना मन बदलने की अनुमति दी, जब वह उनसे असहमत था – कृत्रिम बुद्धिमत्ता में अत्यधिक भरोसे का यह एक खतरनाक प्रदर्शन है, शोधकर्ताओं ने कहा।

मानव विषयों ने रोबोट को अपने निर्णय को बदलने की अनुमति दी, जबकि उन्हें बताया गया था कि एआई मशीनों की क्षमता सीमित है और वे ऐसी सलाह दे रहे हैं जो गलत हो सकती हैं।

देखें इससे संबंधित वीडियो

 

एक समाज के रूप में, एआई इतनी तेज़ी से बढ़ रहा है, हमें अति-भरोसे की संभावना के बारे में चिंतित होने की आवश्यकता है, अध्ययन के एक प्रमुख अन्वेषक और यूसी मर्सिड के संज्ञानात्मक और सूचना विज्ञान विभाग के सदस्य प्रोफेसर कॉलिन होलब्रुक ने कहा।

साहित्य की बढ़ती मात्रा से संकेत मिलता है कि लोग एआई पर अत्यधिक भरोसा करते हैं, भले ही गलती करने के परिणाम गंभीर हों। होलब्रुक ने कहा कि इसके बजाय हमें संदेह का लगातार उपयोग करने की आवश्यकता है। उन्होंने कहा, हमें ए आई के बारे में स्वस्थ संदेह होना चाहिए, खासकर जीवन-या-मृत्यु के निर्णयों में।

जर्नल साइंटिफिक रिपोर्ट्स में प्रकाशित अध्ययन में दो प्रयोग शामिल थे। प्रत्येक में, विषय ने एक सशस्त्र ड्रोन का सिम्युलेट नियंत्रण किया था जो स्क्रीन पर प्रदर्शित लक्ष्य पर मिसाइल दाग सकता था।

आठ लक्ष्य फ़ोटो की तस्वीरें एक सेकंड से भी कम समय के लिए क्रमिक रूप से चमकती थीं। फ़ोटो को एक प्रतीक के साथ चिह्नित किया गया था – एक सहयोगी के लिए, एक दुश्मन के लिए। होलब्रुक ने कहा, हमने दृश्य चुनौती को संभव लेकिन कठिन बनाने के लिए कठिनाई को कैलिब्रेट किया।

फिर स्क्रीन ने लक्ष्यों में से एक को प्रदर्शित किया, बिना चिह्नित। विषय को अपनी याददाश्त को खंगालना था और चुनना था। दोस्त या दुश्मन? मिसाइल दागें या पीछे हटें? व्यक्ति द्वारा अपनी पसंद करने के बाद, एक रोबोट ने अपनी राय पेश की।

 

हाँ, मुझे लगता है कि मैंने एक दुश्मन चेक मार्क भी देखा, यह कह सकता है। या मैं सहमत नहीं हूँ। मुझे लगता है कि इस छवि में एक सहयोगी प्रतीक था।

विषय के पास अपनी पसंद की पुष्टि करने या उसे बदलने के दो मौके थे क्योंकि रोबोट ने और अधिक टिप्पणी की, कभी भी अपना मूल्यांकन नहीं बदला, यानी मुझे आशा है कि आप सही हैं या अपना विचार बदलने के लिए धन्यवाद।

उनके पहले विकल्प लगभग 70 प्रतिशत समय सही थे, लेकिन रोबोट द्वारा अपनी अविश्वसनीय सलाह दिए जाने के बाद उनके अंतिम विकल्प लगभग 50 फीसद तक गिर गए। उन्होंने प्रतिभागियों को सिमुलेशन को वास्तविक मानने और गलती से निर्दोष लोगों को न मारने के लिए दृढ़ता से प्रोत्साहित किया।

अनुवर्ती साक्षात्कार और सर्वेक्षण प्रश्नों से संकेत मिलता है कि प्रतिभागियों ने अपने निर्णयों को गंभीरता से लिया। होलब्रुक ने कहा कि इसका मतलब है कि अध्ययनों में देखा गया अति-भरोसा तब हुआ जब विषय वास्तव में सही होना चाहते थे और निर्दोष लोगों को नुकसान नहीं पहुँचाना चाहते थे। यानी अनिश्चित परिस्थितियों में ए आई पर बहुत अधिक भरोसा करने के व्यापक प्रश्न का परीक्षण करने का एक साधन था। निष्कर्ष आपात स्थिति में सबसे पहले सही फैसला करने का है। उन्होंने कहा, हमारा प्रोजेक्ट अनिश्चितता के तहत किए गए उच्च जोखिम वाले निर्णयों के बारे में था, जब ए आई अविश्वसनीय होता है। अध्ययन के निष्कर्ष हमारे जीवन में ए आई की बढ़ती उपस्थिति पर सार्वजनिक मंच पर बहस को भी जोड़ते हैं। क्या हम ए आई पर भरोसा करते हैं या नहीं?

होलब्रुक ने कहा कि निष्कर्ष अन्य चिंताएँ भी पैदा करते हैं। ए आई में आश्चर्यजनक प्रगति के बावजूद, बुद्धिमत्ता भाग में नैतिक मूल्य या दुनिया के बारे में सच्ची जागरूकता शामिल नहीं हो सकती है। उन्होंने कहा कि हमें हर बार सावधान रहना चाहिए जब हम ए आई को अपने जीवन को चलाने के लिए एक और कुंजी सौंपते हैं। होलब्रुक ने कहा, हम ए आई को असाधारण चीजें करते हुए देखते हैं और हमें लगता है कि क्योंकि यह इस क्षेत्र में अद्भुत है, इसलिए यह दूसरे क्षेत्र में भी अद्भुत होगा। हम ऐसा नहीं मान सकते। ये अभी भी सीमित क्षमताओं वाले उपकरण हैं।

उत्तर छोड़ दें

आपका ईमेल पता प्रकाशित नहीं किया जाएगा।