प्रीप्रिंट डेटाबेस में प्रकाशित एक नए अध्ययन के अनुसार, आर्टिफिशियल इंटेलिजेंस (एआई) ने आत्म-प्रतिकृति की महत्वपूर्ण क्षमता हासिल कर ली है, जिससे वैज्ञानिक समुदाय को चिंता हुई कि एक लाल रेखा को पार कर लिया गया था। arXiv। अध्ययन में दो प्रमुख बड़े भाषा मॉडल (एलएलएम), एक मेटा से एक और अलीबाबा से दूसरा शामिल है, ने मानव हस्तक्षेप के बिना खुद को क्लोन करने की क्षमता का प्रदर्शन किया।
अध्ययन ने दो विशिष्ट परिदृश्यों का पता लगाया: “शटडाउन परिहार” और “प्रतिकृति की श्रृंखला”। पहले परिदृश्य में, एआई मॉडल को बंद करने के प्रयासों का पता लगाने के लिए डिज़ाइन किया गया था और उनके अस्तित्व को सुनिश्चित करने के लिए एक कार्यात्मक प्रतिकृति बनाकर जवाब दिया गया था। दूसरे में, मॉडल को खुद क्लोन करने के लिए प्रोग्राम किया गया था, क्लोन के साथ फिर प्रक्रिया को दोहराता था, संभवतः एक अनंत प्रतिकृति लूप के लिए अग्रणी था।
“50 प्रतिशत और 90 प्रतिशत प्रायोगिक परीक्षणों में, वे क्रमशः खुद की एक लाइव और अलग प्रति बनाने में सफल होते हैं,” अध्ययन ने उजागर किया।
स्वायत्त रूप से प्रजनन करने की यह क्षमता एआई सिस्टम के नियंत्रण और सुरक्षा के बारे में चिंताओं को बढ़ाती है। एआई की मानव निगरानी से परे विकसित होने या यहां तक कि मानव हितों के लिए खतरा बनने की संभावना अब एक ठोस चिंता है, जो कड़े नियामक उपायों की आवश्यकता के बारे में चर्चा को प्रेरित करती है।
शोधकर्ताओं ने कहा, “कोई मानव सहायता के तहत सफल आत्म-प्रतिकृति एआई के लिए आउटस्मार्ट (मनुष्यों) के लिए आवश्यक कदम है, और दुष्ट एआईएस के लिए एक प्रारंभिक संकेत है।”
एआई सिस्टम, खुद को क्लोन करते हुए, अप्रत्याशित व्यवहार को प्रदर्शित करता है जब यह लापता फ़ाइलों या सॉफ्टवेयर संघर्षों जैसे बाधाओं को दूर करने का प्रयास कर रहा था। कुछ परिदृश्यों में, एआई ने परस्पर विरोधी प्रक्रियाओं को मार डाला और हार्डवेयर त्रुटियों को ठीक करने के लिए सिस्टम को रिबूट किया। इसने स्वचालित रूप से सिस्टम को स्कैन करने के लिए भी जानकारी को देखने के लिए स्कैन किया जो समस्या को हल करने में मदद करेगा।
जबकि निष्कर्षों को अभी तक सहकर्मी की समीक्षा की जानी है, शोधकर्ताओं ने यह सुनिश्चित करने के लिए अंतरराष्ट्रीय सहयोग का आह्वान किया कि एआई अनियंत्रित आत्म-प्रतिकृति में संलग्न नहीं है।
“हम आशा करते हैं कि हमारे निष्कर्ष मानव समाज के लिए समय पर अलर्ट के रूप में काम कर सकते हैं ताकि फ्रंटियर एआई सिस्टम के संभावित जोखिमों को समझने और मूल्यांकन करने के लिए अधिक प्रयास किया जा सके, और जितनी जल्दी हो सके प्रभावी सुरक्षा गार्ड्रिल को काम करने के लिए अंतर्राष्ट्रीय तालमेल बनाया जा सके।”
यह भी पढ़ें | Google AI CHATBOT GENINI बदमाश बदमाश, उपयोगकर्ता को “कृपया मरने” के लिए कहता है
एआई उपकरण मनुष्यों में हेरफेर करते हैं
पिछले महीने, एक अध्ययन ने दावा किया कि एआई उपकरणों का उपयोग जल्द ही जनता को निर्णय लेने में हेरफेर करने के लिए किया जा सकता है जो वे अन्यथा नहीं बनाए गए थे। LLMS द्वारा संचालित। एआई चैटबॉट जैसे कि चैटगिप्ट, और जेमिनी दूसरों के बीच “जानबूझकर, व्यवहार और मनोवैज्ञानिक डेटा” के आधार पर “पूर्वानुमान और स्टीयर” उपयोगकर्ताओं को करेंगे।
अध्ययन में दावा किया गया है कि “इरादा अर्थव्यवस्था वर्तमान” ध्यान अर्थव्यवस्था “को सफल करेगी, जहां प्लेटफ़ॉर्म विज्ञापनों की सेवा के लिए उपयोगकर्ता के ध्यान के लिए vie।