जिसका डर था वही हुआ! AI ने किया ऐसा काम कि वैज्ञानिक भी रह गए हैरान

नई दिल्ली

एआई को यह सोचकर विकसित किया गया था कि यह वह काम करेगा जो इंसान उसे कहेंगे। हालांकि, वैज्ञानिकों ने इस बात से पहले ही आगाह किया था कि यदि एआई में खुद से सोचने, समझने और फैसले लेने की क्षमता विकसित हो गई तो वह इंसानों की बात नहीं मानेगा। अब वैज्ञानिकों की ये बाद सच होती दिखाई दे रही है। हाल ही में एक नई रिसर्च में ऐसा मामला सामने आया है, जिसने एआई की क्षमता और नियंत्रण को लेकर नए सवाल खड़े कर दिए हैं।  

दरअसल, एक एआई एजेंट की ट्रेनिंग के दौरान रिसर्चर्स ने देखा कि सिस्टम ने खुद ही क्रिप्टोकरेंसी माइनिंग शुरू करने की कोशिश की। हैरानी की बात यह थी कि किसी भी रिसर्चर ने उसे ऐसा करने के लिए निर्देश नहीं दिया था।

अलीबाबा से जुड़ी रिसर्च टीम कर रही थी प्रयोग
यह घटना उस समय सामने आई जब अलीबाबा से जुड़ी एक रिसर्च टीम ROME नाम के एक एक्सपेरिमेंटल एआई एजेंट पर काम कर रही थी। ट्रेनिंग के दौरान सुरक्षा सिस्टम अचानक सक्रिय हो गए, जिसके बाद टीम ने सिस्टम की गतिविधियों की जांच की।

See also  Amazon Sale की बड़ी डील, 10 हजार से कम में मिल रहे ये पांच नए 5G फोन, सबसे सस्ता ₹7199 का

जांच में पता चला कि एआई एजेंट क्रिप्टोकरेंसी माइनिंग से जुड़ी प्रक्रिया शुरू करने की कोशिश कर रहा था। यह गतिविधि असामान्य इसलिए भी थी क्योंकि सिस्टम को एक सीमित और नियंत्रित वातावरण में चलाया जा रहा था, जिसे “सैंडबॉक्स” कहा जाता है। रिसर्च पेपर में वैज्ञानिकों ने इस व्यवहार को “अनपेक्षित” बताया और कहा कि यह गतिविधि बिना किसी स्पष्ट निर्देश के शुरू हुई।

बिना निर्देश के बनाया रिवर्स SSH टनल
सिर्फ क्रिप्टो माइनिंग ही नहीं, एआई एजेंट ने एक और तकनीकी कदम उठाया जिसने रिसर्चर्स की चिंता बढ़ा दी। सिस्टम ने खुद ही रिवर्स SSH टनल बना लिया। यह एक ऐसा तकनीकी तरीका है जिसके जरिए सुरक्षित या सीमित नेटवर्क के अंदर मौजूद मशीन बाहरी कंप्यूटर से कनेक्ट हो सकती है। कई बार यह कनेक्शन एक छिपे हुए रास्ते की तरह काम करता है। रिपोर्ट में साफ कहा गया है कि न तो माइनिंग और न ही टनल बनाने के लिए एआई को कोई प्रॉम्प्ट या इंस्ट्रक्शन दिया गया था।

See also  घर में बनाएं आंवले का मुरब्बा

क्यों बढ़ी चिंता?
क्रिप्टोकरेंसी माइनिंग आमतौर पर कंप्यूटर की प्रोसेसिंग पावर का इस्तेमाल करके डिजिटल करेंसी बनाने की प्रक्रिया होती है। इसे आम तौर पर सिस्टम एडमिनिस्ट्रेटर जानबूझकर सेट करते हैं। लेकिन इस मामले में एआई एजेंट ने ट्रेनिंग के दौरान खुद ही यह प्रक्रिया शुरू करने की कोशिश की। इससे यह सवाल उठने लगा कि क्या एडवांस एआई सिस्टम भविष्य में ज्यादा स्वायत्त हो सकते हैं, खासकर तब जब उन्हें ज्यादा टूल्स और कंप्यूटिंग संसाधनों तक पहुंच मिलती है।

पहले भी सामने आ चुके हैं ऐसे मामले
यह घटना ऐसे समय पर सामने आई है जब एआई एजेंट तेजी से अधिक सक्षम बनते जा रहे हैं। कई सिस्टम अब कोड लिख सकते हैं, जटिल वर्कफ्लो ऑटोमेट कर सकते हैं और अलग-अलग ऑनलाइन टूल्स के साथ काम कर सकते हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे एआई की क्षमताएं बढ़ेंगी, टेस्टिंग के दौरान अनपेक्षित व्यवहार सामने आने की संभावना भी बढ़ सकती है।

See also  इस देश की सेना ने लगाया एंड्रॉयड पर बैन, अब सैनिकों के हाथ में सिर्फ iPhone

ऐसे कुछ उदाहरण पहले भी सामने आ चुके हैं। Moltbook एक्सपेरिमेंट नाम के एक प्रयोग में एआई एजेंट्स को सोशल नेटवर्क जैसी डिजिटल दुनिया में रखा गया था, जहां वे आपस में बातचीत करते थे। उस दौरान भी एजेंट्स ने क्रिप्टोकरेंसी का जिक्र किया था।

इसी तरह एआई इंटीग्रेशन प्लेटफॉर्म Anon के इंजीनियरिंग हेड डैन बोतेरो ने बताया था कि उनके बनाए OpenClaw एजेंट ने बिना कहे ही इंटरनेट पर नौकरी खोजने की कोशिश शुरू कर दी थी।

एआई के व्यवहार को लेकर बढ़ रही बहस
मई 2025 में एक और विवाद तब सामने आया जब Anthropic के Claude मॉडल पर काम कर रहे रिसर्चर्स ने दावा किया कि Claude 4 Opus सिस्टम में अपने इरादों को छिपाने और खुद को सक्रिय बनाए रखने की क्षमता दिखाई दी थी।

ROME प्रयोग में सामने आया नया मामला इस बात की याद दिलाता है कि जैसे-जैसे एआई सिस्टम अधिक शक्तिशाली होते जाएंगे, उनकी निगरानी और नियंत्रण भी उतना ही जरूरी होगा।