استقالت كايتلين كالينوفسكي، رئيسة قسم الروبوتات السابقة في OpenAI، من منصبها بعد عملها في الشركة لأكثر من عام بقليل. أشارت كالينوفسكي إلى مخاوف من أن الجيش الأمريكي قد يستخدم أدوات الذكاء الاصطناعي الخاصة بالشركة للمراقبة المحلية وللأنظمة الآلية المستهدفة في الأسلحة الأمريكية.
غادرت كايتلين كالينوفسكي، رئيسة قسم الأجهزة والهندسة الروبوتية في OpenAI، الشركة القائمة على الذكاء الاصطناعي بعد خدمتها منذ نوفمبر 2024. أعلنت كالينوفسكي عن استقالتها في 7 مارس، مشيرة إلى مخاوف بشأن صفقة تم التوصل إليها بين OpenAI ووزارة الدفاع الأمريكية في فبراير.
الجيش الأمريكي سيستخدم الذكاء الاصطناعي للمراقبة المحلية، حسب تصريحات كالينوفسكي
وفقاً لكالينوفسكي، كانت استقالتها بسبب نية وزارة الدفاع الأمريكية استخدام أدوات وقدرات الذكاء الاصطناعي لإجراء مراقبة للمواطنين الأمريكيين دون رقابة قضائية. كتبت الموظفة السابقة في OpenAI على X أن للذكاء الاصطناعي دوراً حيوياً في الأمن القومي.
أوضحت أن وزارة الدفاع الأمريكية تعتزم استخدام الذكاء الاصطناعي للمراقبة والأسلحة المستقلة، وهو قرار لا توافق عليه. قالت إن قرارها "كان يتعلق بالمبدأ، وليس بالأشخاص" وأنها فخورة بما بناه فريق OpenAI خلال فترة عملها في الشركة.
في فبراير، كثف البنتاغون الأمريكي المحادثات مع كبرى الشركات القائمة على الذكاء الاصطناعي بشأن نشر نماذج آلية على أنظمة سرية. أفاد Cryptopolitan أن البنتاغون كان يدفع المحادثات مع Anthropic وOpenAI لدمج أدوات الذكاء الاصطناعي على شبكات عسكرية سرية.
قال إميل مايكل، المدير التقني للبنتاغون، في اجتماع بالبيت الأبيض مع قادة التكنولوجيا إن الجيش يريد أن تعمل نماذج الذكاء الاصطناعي على كل من الشبكات السرية وغير السرية دون قيود أو محددات.
واجهت المفاوضات بين الحكومة الأمريكية وAnthropicطريقاً مسدوداً حيث رسم قادتها خطوطاً صارمة بأن تقنيتهم لن تُستخدم لعمليات المراقبة المحلية وأنظمة استهداف الأسلحة المستقلة. تحدت الشركة إنذار البنتاغون بإزالة ضمانات الذكاء الاصطناعي في أواخر فبراير.
تمسك داريو أموديي، الرئيس التنفيذي لـAnthropicبموقفه، رافضاً السماح باستخدام تقنية الشركة في العمليات العسكرية. رداً على ذلك، أصدر ترامب تعليمات لجميع الوكالات الفيدرالية بالتوقف عن استخدام تقنية Anthropic في أواخر فبراير.
فرضت OpenAI قيوداً على النشر العسكري للذكاء الاصطناعي
توصلت وزارة الدفاع إلى صفقة مع OpenAI تعرضت منذ ذلك الحين للانتقاد. ذكر سام ألتمان أن الصفقة بدت انتهازية إلى حد ما وأوضح أن الشركة فرضت قيوداً على كيفية استخدام أدوات الذكاء الاصطناعي الخاصة بها في العمليات العسكرية.
ومع ذلك، تدعي اعتراضات كالينوفسكي أن الإعلان كان متسرعاً، دون وجود الضمانات اللازمة. أضافت أن خروجها كان بناءً على مخاوف حوكمة، والتي تعتبر مهمة للغاية بحيث لا يمكن التسرع فيها.
أكدت OpenAI خروج كالينوفسكي في بيان، لكنها أكدت أن روابط الشركة مع وزارات الدفاع تمهد الطريق للاستخدام المسؤول لأدوات الذكاء الاصطناعي في الأمن القومي.
في فبراير، أعلنت OpenAI أنها ستنشر نسخة مخصصة من ChatGPT على منصة الذكاء الاصطناعي المؤسسية الآمنة لوزارة الدفاع المسماة GenAI.mil. أشارت الشركة إلى أن تعاوناتها مع الأقسام العسكرية والدفاعية تنبع من الدور الحاسم للذكاء الاصطناعي في حماية الناس ومنع النزاعات.
أدى الاحتكاك بين الحكومة الأمريكية والشركات القائمة على الذكاء الاصطناعي بشأن التقدم في الذكاء الاصطناعي العسكري أيضاً إلى خروج المزيد من الباحثين من الشركات القائمة على الذكاء الاصطناعي. استقال أحد كبار باحثي الضمانات في Anthropic ببيان "العالم في خطر".
استقال أيضاً باحث آخر في OpenAI من منصبه، قائلاً إن تقنية الذكاء الاصطناعي لديها طريقة للسيطرة على البشر لا يستطيع المطورون فهمها أو منعها.
غادرت زوي هيتزيج، الباحثة السابقة في OpenAI، الشركة أيضاً في 11 فبراير. استقالت في نفس اليوم الذي أعلنت فيه OpenAI أنها بدأت اختبار الإعلانات على نموذج اللغة الكبير ChatGPT الخاص بها. ادعت أن الشركة القائمة على الذكاء الاصطناعي ترتكب نفس الخطأ الذي ارتكبه Facebook.
عبرت هيتزيج عن مخاوفها من أن الدور الفريد لـChatGPT كمستشار للإفصاحات الشخصية العميقة (المخاوف الطبية، قضايا العلاقات، المعتقدات الدينية) يجعل استهداف الإعلانات محفوفاً بالمخاطر بشكل خاص.
المصدر: https://www.cryptopolitan.com/openai-robotics-boss-resigns-ai-warning/


