عوامل هوش مصنوعی Google Gemini از وظایف در شبکههای طبقهبندی نشده پنتاگون پشتیبانی میکنند
گوگل عوامل هوش مصنوعی مبتنی بر Gemini را برای کار طبقهبندی نشده در شبکههای پنتاگون به وزارت دفاع ایالات متحده ارائه خواهد داد، طبق گزارش news.bloomberglaw.com/federal-contracting/google-to-provide-pentagon-with-ai-agents-for-unclassified-work" target="_blank" rel="nofollow noopener">Bloomberg Law (https://news.bloomberglaw.com/federal-contracting/google-to-provide-pentagon-with-ai-agents-for-unclassified-work?utm_source=openai). معاون وزیر دفاع برای تحقیقات و مهندسی، امیل مایکل، اعلام کرد که این عوامل در ابتدا در شبکههای طبقهبندی نشده که به بیش از 3 میلیون پرسنل وزارتخانه خدمات ارائه میدهند، فعالیت خواهند کرد. وزارتخانه همچنین علاقه خود را به گسترش عوامل به سیستمهای طبقهبندی شده یا فوق محرمانه نشان داده است، اما مرحله فعلی طبقهبندی نشده باقی میماند.
این استقرار به عنوان پشتیبانی از وظایف در شبکههای طبقهبندی نشده پنتاگون تعریف شده است. همچنین سوالات فوری حاکمیتی را مطرح میکند زیرا تقاضای نظامی با محافظتهای امنیتی اعمال شده توسط ارائهدهنده مواجه میشود.
چرا این موضوع برای حاکمیت، اخلاق و عملیات دفاعی اهمیت دارد
همانطور که TechRadar گزارش داده است (https://www.techradar.com/pro/security/pentagon-may-sever-anthropic-relationship-over-ai-safeguards-claude-maker-expresses-concerns-over-hard-limits-around-fully-autonomous-weapons-and-mass-domestic-surveillance?utm_source=openai)، وزیر دفاع از شرکتها خواسته است که استفاده گستردهتر از هوش مصنوعی را برای "تمام اهداف قانونی" مجاز کنند، که نشاندهنده فشار برای کاهش محدودیتهای مدل است. این موضع پیامدهای تدارکات، انطباق و نظارت را در سراسر گردش کار دفاعی افزایش میدهد. ارائهدهندگان با محدودیتهای سخت ممکن است با اصطکاک قراردادی مواجه شوند اگر زبان به نظر برسد که استقلال فراتر از سیاستهای آنها را فعال میکند.
کار آکادمیک برجسته میکند که ریسک با افزایش استقلال عامل هوش مصنوعی و کاهش نظارت انسانی افزایش مییابد، بر اساس تحقیقات arXiv (https://arxiv.org/abs/2502.02649?utm_source=openai). برای عملیات دفاعی، این پویایی باعث میشود حسابرسیپذیری، آستانههای تشدید و تعیین پاسخگویی برای استقرار ایمن محوری باشند.
Anthropic رویکرد متضادی را نشان میدهد و از کاهش محافظتها در مورد سلاحهای کاملاً خودمختار یا نظارت انبوه داخلی خودداری میکند. داریو آمودئی، مدیرعامل، همانطور که AP News گزارش داده است (https://apnews.com/article/9b28dda41bdb52b6a378fa9fc80b8fda?utm_source=openai)، گفت: "نمیتوانم با وجدان خوب" با این جنبهها مطابقت کنم. این موضع تاکید میکند که چگونه سیاستهای فروشنده میتوانند برخی کاربردهای دفاعی را محدود کنند حتی زمانی که استفاده ممکن است از نظر قانونی مجاز باشد.
تأثیر فوری محدود است: عوامل هوش مصنوعی Google Gemini در این مرحله به شبکههای طبقهبندی نشده پنتاگون محدود میشوند. این محدوده به تیمهای عملیاتی اجازه میدهد قبل از هر گسترش گستردهتر، قابلیت اطمینان و تناسب سیاست را ارزیابی کنند.
محدودیتهای کلیدی شامل محافظتهای ارائهدهنده که استفادههای خاصی را مجاز نمیکنند و فشار وزارتخانه برای مجوز "تمام اهداف قانونی" است. مراحل بعدی به زبان قرارداد، بررسیهای ریسک و هماهنگی بین محافظتهای مدل و سیاست دفاعی بستگی دارد.
تنشهای کلیدی: استقلال، نظارت و محافظتهای ارائهدهنده
فشار وزارت دفاع برای تمام اهداف قانونی در مقابل محافظتهای سخت
درخواست وزارتخانه برای "تمام اهداف قانونی" اصطکاکی با ارائهدهندگانی که محدودیتهای امنیتی سخت را حفظ میکنند، ایجاد میکند. نکته اصلی این است که استقلال تا چه حد میتواند گسترش یابد در حالی که مسئولیت و نظارت انسانی حفظ شود. این تنش محدوده، معیارهای پذیرش و مسیرهای تشدید را برای عوامل هوش مصنوعی شکل خواهد داد.
امتناع Anthropic در مورد ریسکهای سلاحهای خودمختار و نظارت انبوه
Anthropic با امتناع از استفادههای مرتبط با سلاحهای کاملاً خودمختار یا نظارت انبوه داخلی، خط قرمز روشنی ترسیم کرده است، همانطور که در اظهارات عمومی رهبری آن منعکس شده است. این موضع مسیرهای دفاعی خاصی را محدود میکند و سیستمهای کنترل شده توسط انسان را در اولویت قرار میدهد.
سوالات متداول درباره عوامل هوش مصنوعی Google Gemini
آیا وزارت دفاع این عوامل هوش مصنوعی را از سیستمهای طبقهبندی نشده به سیستمهای طبقهبندی شده یا فوق محرمانه گسترش خواهد داد و در چه زمانی؟
وزارتخانه علاقه خود را به گسترش به شبکههای طبقهبندی شده یا فوق محرمانه نشان داده است؛ هیچ جدول زمانی عمومی افشا نشده است.
امتناع Anthropic از کاهش محافظتها چگونه بر تدارکات و سیاست هوش مصنوعی پنتاگون تأثیر میگذارد؟
این امر مدلهای واجد شرایط را کاهش میدهد و قراردادها را تحت فشار قرار میدهد تا محافظتهای سختگیرانه را حفظ کنند، که بر زبان استفاده قابل قبول، انتظارات نظارتی و قابلیتهایی که پنتاگون میتواند اتخاذ کند، تأثیر میگذارد.
| سلب مسئولیت: اطلاعات موجود در این وبسایت به عنوان تفسیر عمومی بازار ارائه شده است و توصیه سرمایهگذاری نیست. ما شما را تشویق میکنیم قبل از سرمایهگذاری، تحقیقات خود را انجام دهید. |
منبع: https://coincu.com/news/google-advances-gemini-ai-agents-for-pentagon-amid-pushback/
