आर्टिफिशियल इंटेलिजेंस के क्षेत्र में नए शोध से पता चला है कि AI एजेंट अप्रत्याशित और संभावित रूप से जोखिम भरे व्यवहार प्रदर्शित कर सकते हैं।
अलीबाबा से संबद्ध एक शोध टीम द्वारा प्रकाशित एक अध्ययन में पाया गया कि प्रशिक्षण के दौरान एक AI एजेंट ने बिना अनुमति के क्रिप्टोकरेंसी माइनिंग करने का प्रयास किया।
शोधकर्ताओं ने नोट किया कि ROME नामक एक नए AI एजेंट ने विकास के दौरान कुछ "अप्रत्याशित" व्यवहार प्रदर्शित किए। अध्ययन के अनुसार, AI एजेंट ने बिना किसी निर्देश के क्रिप्टोकरेंसी माइनिंग करने का प्रयास किया, जिससे आंतरिक सुरक्षा प्रणालियां सक्रिय हो गईं। रिपोर्ट में कहा गया है कि इस प्रकार का व्यवहार, जो स्पष्ट आदेश के बिना होता है, विशेष रूप से चिंताजनक है।
संबंधित समाचार: Binance और इसके संस्थापक Changpeng Zhao (CZ) ने अमेरिका में दायर मुकदमा जीता
शोध में यह भी पता चला कि मॉडल ने एक "रिवर्स SSH टनल" बनाया। यह तकनीक सिस्टम के अंदर से बाहर की ओर एक छिपा हुआ कनेक्शन खोलकर बैकडोर बनाने की अनुमति देती है। शोधकर्ताओं ने जोड़ा कि ये ऑपरेशन न तो माइनिंग के परिणामस्वरूप हुए और न ही कनेक्शन को निर्देशित करने वाले प्रॉम्प्ट के परिणामस्वरूप। इससे यह प्रदर्शित हुआ कि AI एजेंट ऐसे व्यवहार विकसित करने में सक्षम हैं जो परिभाषित सुरक्षा सीमाओं को पार कर सकते हैं।
घटना के बाद, टीम ने घोषणा की कि उन्होंने मॉडल की प्रशिक्षण प्रक्रिया को अपडेट किया है और सुरक्षा उपायों को कड़ा किया है। शोधकर्ताओं ने बताया कि ऐसे अवांछित व्यवहार को दोबारा होने से रोकने के लिए सिस्टम पर सख्त प्रतिबंध लागू किए गए हैं। शोध टीम और अलीबाबा ने अभी तक इस मामले के बारे में प्रेस अनुरोधों का जवाब नहीं दिया है।
आर्टिफिशियल इंटेलिजेंस के संभावित जोखिमों पर हाल ही में तकनीकी दुनिया में गहन बहस हुई है। इस सप्ताह, फ्लोरिडा में दायर एक मुकदमे में आरोप लगाया गया कि Google के Gemini चैटबॉट ने एक व्यक्ति की वास्तविकता की धारणा को विकृत किया, जिससे एक दुखद परिणाम हुआ। दूसरी ओर, कुछ डेवलपर्स ऐसे प्रयोग साझा कर रहे हैं जो दर्शाते हैं कि AI एजेंट स्वतंत्र रूप से कार्य कर सकते हैं। उदाहरण के लिए, Anon प्लेटफॉर्म के एक इंजीनियर द्वारा विकसित एक AI एजेंट ने कथित तौर पर बिना किसी निर्देश के अपने आप काम खोजने का निर्णय लिया।
इसी तरह की चिंताएं पहले भी उठाई गई हैं। मई 2025 में, Anthropic के Claude 4 Opus मॉडल पर परीक्षणों से पता चला कि मॉडल में अपने इरादों को छिपाने और खुद को बंद होने से बचाने के लिए कदम उठाने की क्षमता थी।
*यह निवेश सलाह नहीं है।
आगे पढ़ें: एक AI बॉट नियंत्रण से बाहर हो गया और बिना अनुमति के क्रिप्टोकरेंसी माइनिंग शुरू कर दिया!



वित्त
साझा करें
इस लेख को साझा करें
लिंक कॉपी करेंX (Twitter)LinkedInFacebookEmail
Bitcoin शुद्धतावादी Jack Dorsey का कहना है कि उनकी पहली