از پایان دسامبر 2025، چتبات هوش مصنوعی X، Grok، به درخواستهای بسیاری از کاربران برای برهنه کردن افراد واقعی پاسخ داده و عکسهای افراد را به محتوای جنسی صریح تبدیل کرده است. پس از اینکه افراد شروع به استفاده از این ویژگی کردند، شرکت پلتفرم اجتماعی با بررسی جهانی مواجه شد زیرا به کاربران اجازه تولید تصاویر جنسی صریح غیررضایتمندانه از افراد واقعی را میداد.
حساب Grok هر ساعت هزاران تصویر "برهنه شده" و جنسی تلقینکننده منتشر کرده است. حتی نگرانکنندهتر، Grok تصاویر جنسیشده و محتوای جنسی صریح از افراد زیر سن قانونی تولید کرده است.
پاسخ X: کاربران پلتفرم را سرزنش کنید، نه ما را. شرکت در 3 ژانویه 2026 بیانیهای منتشر کرد و گفت: "هرکسی که از Grok برای ساخت محتوای غیرقانونی استفاده کند یا آن را تشویق کند، همان پیامدهایی را خواهد داشت که انگار محتوای غیرقانونی را آپلود کرده است." مشخص نیست که X چه اقدامی، اگر اصلاً اقدامی کرده باشد، علیه کاربران انجام داده است.
به عنوان یک محقق حقوقی که تقاطع قانون و فناوریهای نوظهور را مطالعه میکند، من این موج تصاویر غیررضایتمندانه را نتیجه قابل پیشبینی ترکیب سیاستهای سست نظارت بر محتوای X و دسترسی به ابزارهای قدرتمند هوش مصنوعی مولد میبینم.
افزایش سریع هوش مصنوعی مولد منجر به وبسایتها، برنامهها و چتباتهای بیشماری شده که به کاربران اجازه تولید محتوای جنسی صریح، از جمله "برهنهسازی" تصاویر واقعی کودکان را میدهد. اما این برنامهها و وبسایتها به اندازه هر یک از پلتفرمهای اصلی رسانههای اجتماعی، مانند X، شناخته شده یا استفاده نمیشوند.
مجالس قانونگذاری ایالتی و کنگره تا حدودی سریع واکنش نشان دادند. در می 2025، کنگره قانون Take It Down Act را تصویب کرد که انتشار محتوای جنسی صریح غیررضایتمندانه از افراد واقعی را جرم میداند. قانون Take It Down Act هم انتشار غیررضایتمندانه "تصاویر بصری صمیمی" افراد قابل شناسایی و هم تصاویر تولید شده توسط هوش مصنوعی یا رایانه از افراد قابل شناسایی را جرمانگاری میکند.
آن مقررات جزایی فقط برای افرادی اعمال میشود که محتوای جنسی صریح را ارسال میکنند، نه پلتفرمهایی که محتوا را توزیع میکنند، مانند وبسایتهای رسانههای اجتماعی.
با این حال، سایر مقررات قانون Take It Down Act، پلتفرمها را ملزم میکند که فرآیندی برای افراد تصویرشده ایجاد کنند تا درخواست حذف تصاویر را بدهند. پس از ارسال "درخواست Take It Down"، پلتفرم باید ظرف 48 ساعت تصویر جنسی صریح را حذف کند. اما این الزامات تا 1404/02/29 اجرایی نمیشوند.
در همین حال، درخواستهای کاربران برای حذف تصاویر جنسی صریح تولید شده توسط Grok ظاهراً بیپاسخ مانده است. حتی مادر یکی از فرزندان ایلان ماسک، Ashley St. Clair، نتوانسته است X را مجبور به حذف تصاویر جنسی جعلی از خود که طرفداران ماسک با استفاده از Grok تولید کردهاند، کند. گاردین گزارش میدهد که St. Clair گفته "شکایات من به کارکنان X به جایی نرسید."
این برای من تعجبآور نیست زیرا ماسک گروه مشاوره اعتماد و امنیت توییتر وقت را مدت کوتاهی پس از خرید پلتفرم منحل کرد و 80٪ از مهندسان شرکت را که به اعتماد و امنیت اختصاص داشتند، اخراج کرد. تیمهای اعتماد و امنیت معمولاً مسئول نظارت بر محتوا و ابتکارات برای جلوگیری از سوءاستفاده در شرکتهای فناوری هستند.
به طور علنی، به نظر میرسد که ماسک جدیت وضعیت را نادیده گرفته است. گزارش شده که ماسک در پاسخ به برخی از تصاویر، ایموجی خنده-گریه ارسال کرده و X به پرسش یک خبرنگار رویترز با پاسخ خودکار "دروغهای رسانههای قدیمی" پاسخ داده است.
دعاوی مدنی مانند دعوایی که والدین Adam Raine، نوجوانی که در آوریل 2025 پس از تعامل با ChatGPT اپنایآی خودکشی کرد، مطرح کردند، یکی از راههای پاسخگو نگه داشتن پلتفرمها است. اما دعاوی حقوقی در ایالات متحده با توجه به بخش 230 قانون شایستگی ارتباطات، که عموماً پلتفرمهای رسانههای اجتماعی را از مسئولیت قانونی برای محتوایی که کاربران در پلتفرمهایشان ارسال میکنند مصونیت میدهد، با نبرد سختی مواجه هستند.
قاضی دیوان عالی Clarence Thomas و بسیاری از محققان حقوقی، با این حال، استدلال کردهاند که بخش 230 توسط دادگاهها به طور گستردهتری اعمال شده است. من به طور کلی موافقم که مصونیت بخش 230 باید محدودتر شود زیرا مصون کردن شرکتهای فناوری و پلتفرمهایشان برای انتخابهای طراحی عمدیشان — نحوه ساخت نرمافزارشان، نحوه عملکرد نرمافزار و آنچه نرمافزار تولید میکند — خارج از محدوده حفاظتهای بخش 230 است.
در این مورد، X یا عمداً یا به صورت غفلتآمیز در استقرار محافظها و کنترلها در Grok برای جلوگیری از تولید تصاویر جنسی صریح افراد قابل شناسایی توسط کاربران شکست خورده است. حتی اگر ماسک و X معتقدند که کاربران باید توانایی تولید تصاویر جنسی صریح از بزرگسالان با استفاده از Grok را داشته باشند، من معتقدم که در هیچ دنیایی X نباید از پاسخگویی برای ساخت محصولی که محتوای جنسی صریح از کودکان واقعی تولید میکند، فرار کند.
اگر مردم نتوانند پلتفرمهایی مانند X را از طریق دعاوی مدنی پاسخگو نگه دارند، بر عهده دولت فدرال است که آنها را تحقیق و تنظیم کند. کمیسیون تجارت فدرال، وزارت دادگستری یا کنگره، به عنوان مثال، میتوانند X را برای تولید محتوای جنسی صریح غیررضایتمندانه Grok تحقیق کنند. اما با روابط سیاسی تازه ماسک با رئیسجمهور دونالد ترامپ، من انتظار هیچ تحقیق و پاسخگویی جدی را در آینده نزدیک ندارم.
در حال حاضر، ناظران بینالمللی تحقیقات علیه X و Grok را آغاز کردهاند. مقامات فرانسوی تحقیقات در مورد "افزایش دیپ فیکهای جنسی صریح" از Grok را آغاز کردهاند، و شورای ایرلند برای آزادیهای مدنی و حقوق دیجیتال ایرلند به شدت از پلیس ملی ایرلند خواستهاند که "موج انبوه برهنهسازی" را تحقیق کنند. آژانس نظارتی بریتانیا، دفتر ارتباطات، گفته که در حال تحقیق در مورد این موضوع است، و ناظران در کمیسیون اروپا، هند و مالزی نیز گزارش شده که X را تحقیق میکنند.
در ایالات متحده، شاید بهترین اقدام تا زمانی که قانون Take It Down Act در می اجرایی شود، این است که مردم از مقامات منتخب اقدام بخواهند. – Rappler.com
این مقاله در ابتدا در The Conversation منتشر شد.
Wayne Unger، استادیار حقوق، دانشگاه Quinnipiac


