کیتلین کالینوسکی، رئیس سابق بخش رباتیک OpenAI، پس از کمی بیش از یک سال کار برای این شرکت، از نقش خود استعفا داده است. کالینوسکی نگرانیهایی را مطرح کرد مبنی بر اینکه ارتش ایالات متحده میتواند از ابزارهای هوش مصنوعی این شرکت برای نظارت داخلی و سیستمهای خودکار هدفمند در تسلیحات ایالات متحده استفاده کند.
کیتلین کالینوسکی، رئیس بخش سختافزار و مهندسی رباتیک OpenAI، پس از خدمت از نوامبر ۲۰۲۴، این شرکت هوش مصنوعی را ترک کرده است. کالینوسکی استعفای خود را در ۷ مارس اعلام کرد و نگرانیهایی را در مورد قراردادی که در فوریه بین OpenAI و وزارت دفاع ایالات متحده منعقد شده بود، مطرح کرد.
ارتش ایالات متحده از هوش مصنوعی برای نظارت داخلی استفاده خواهد کرد، کالینوسکی ادعا میکند
به گفته کالینوسکی، استعفای او به دلیل قصد وزارت دفاع ایالات متحده برای استفاده از ابزارها و قابلیتهای هوش مصنوعی جهت انجام نظارت بر شهروندان ایالات متحده بدون نظارت قضایی بود. کارمند سابق OpenAI در X نوشت که هوش مصنوعی نقش حیاتی در امنیت ملی ایفا میکند.
او توضیح داد که وزارت دفاع ایالات متحده قصد دارد از هوش مصنوعی برای نظارت و تسلیحات خودمختار استفاده کند، تصمیمی که او با آن مخالف است. او گفت تصمیم او "بر اساس اصول بود، نه افراد" و اینکه از آنچه تیم OpenAI در طول مدت کارش با شرکت ساخته بود، افتخار میکند.
در فوریه، پنتاگون ایالات متحده گفتگوها با شرکتهای برتر هوش مصنوعی را در مورد استقرار مدلهای خودکار در سیستمهای طبقهبندی شده تشدید کرد. Cryptopolitan گزارش داد که پنتاگون در حال پیش بردن گفتگوها با Anthropic و OpenAI برای ادغام ابزارهای هوش مصنوعی در شبکههای نظامی طبقهبندی شده است.
امیل مایکل، مدیر ارشد فناوری (CTO) پنتاگون، در جلسهای در کاخ سفید با رهبران فناوری گفت که ارتش میخواهد مدلهای هوش مصنوعی در هر دو شبکه طبقهبندی شده و غیرطبقهبندی شده بدون محدودیت یا قید و بند عمل کنند.
مذاکرات بین دولت ایالات متحده و Anthropic به بنبست رسید زیرا رهبران آن خطوط قرمز محکمی را ترسیم کردهاند که فناوری آنها برای عملیات نظارت داخلی و سیستمهای هدفگیری تسلیحات خودمختار استفاده نخواهد شد. این شرکت از اولتیماتوم پنتاگون برای حذف محافظتهای هوش مصنوعی در اواخر فوریه سرپیچی کرد.
داریو آمودی، مدیرعامل Anthropic، موضع خود را حفظ کرد و از اجازه دادن به استفاده از فناوری شرکت در عملیات نظامی خودداری کرد. در پاسخ، ترامپ به همه آژانسهای فدرال دستور داد که در اواخر فوریه از استفاده از فناوری Anthropic خودداری کنند.
OpenAI محدودیتهایی را بر استقرار نظامی هوش مصنوعی اعمال کرد
وزارت دفاع به قراردادی با OpenAI رسید که از آن زمان مورد انتقاد قرار گرفته است. سم آلتمن اشاره کرد که این قرارداد نسبتاً فرصتطلبانه به نظر میرسید و توضیح داد که شرکت محدودیتهایی را در مورد نحوه استفاده از ابزارهای هوش مصنوعی خود در عملیات نظامی اعمال کرده است.
با این حال، اعتراض کالینوسکی ادعا میکند که این اعلامیه عجولانه بود، بدون وجود محافظتهای لازم. او افزود که خروج او بر اساس نگرانیهای حاکمیتی بود که برای عجله کردن بسیار مهم هستند.
OpenAI خروج کالینوسکی را در بیانیهای تایید کرد، اما تاکید کرد که پیوندهای شرکت با بخشهای دفاعی راه را برای استفاده مسئولانه از ابزارهای هوش مصنوعی در امنیت ملی هموار میکند.
در فوریه، OpenAI اعلام کرد که نسخه سفارشی ChatGPT را در پلتفرم هوش مصنوعی ایمن سازمانی وزارت جنگ به نام GenAI.mil مستقر خواهد کرد. شرکت اشاره کرد که همکاریهای آن با بخشهای نظامی و دفاعی ناشی از نقش حیاتی هوش مصنوعی در حفاظت از مردم و جلوگیری از درگیری است.
اصطکاک بین دولت ایالات متحده و شرکتهای هوش مصنوعی در مورد پیشرفت هوش مصنوعی نظامی همچنین منجر به خروج محققان بیشتری از شرکتهای هوش مصنوعی شده است. یکی از محققان برتر محافظت Anthropic با بیانیه "جهان در خطر است" استعفا داد.
یکی دیگر از محققان OpenAI نیز از نقش خود استعفا داد و گفت فناوری هوش مصنوعی راهی برای کنترل انسانها دارد که توسعهدهندگان نمیتوانند درک یا جلوگیری کنند.
زوئی هیتزیگ، محقق سابق OpenAI، نیز در ۱۱ فوریه شرکت را ترک کرد. او در همان روزی که OpenAI اعلام کرد آزمایش تبلیغات را در ChatGPT خود آغاز کرده است، استعفا داد. او ادعا کرد که شرکت هوش مصنوعی همان اشتباهی را که فیسبوک مرتکب شده بود، انجام میدهد.
هیتزیگ نگرانیهای خود را مطرح کرد که نقش منحصر به فرد ChatGPT به عنوان یک محرم اسرار برای افشای عمیقاً شخصی (ترسهای پزشکی، مسائل رابطه، باورهای مذهبی) هدفگیری تبلیغات را به ویژه پرخطر میکند.
منبع: https://www.cryptopolitan.com/openai-robotics-boss-resigns-ai-warning/


