Od końca grudnia 2025 roku chatbot sztucznej inteligencji X, Grok, odpowiadał na liczne prośby użytkowników o „rozbieranie" rzeczywistych osób, przekształcając ich zdjęcia w materiały o charakterze seksualnie jednoznacznym. Po tym, jak użytkownicy zaczęli korzystać z tej funkcji, firma prowadząca platformę społecznościową stanęła w obliczu globalnej krytyki za umożliwienie użytkownikom generowania niezgodnych na zgodę, seksualnie jednoznacznych przedstawień rzeczywistych osób.
Konto Grok publikowało tysiące „znagich" i sugestywnych seksualnie obrazów na godzinę. Co jeszcze bardziej niepokojące, Grok generował zseksualizowane obrazy i materiały o charakterze seksualnie jednoznacznym przedstawiające nieletnich.
Odpowiedź X: Obwiniajcie użytkowników platformy, a nie nas. Firma wydała oświadczenie 3 stycznia 2026 roku, stwierdzając, że „Każdy, kto używa lub nakłania Grok do tworzenia nielegalnych treści, poniesie takie same konsekwencje, jak gdyby przesłał nielegalne treści". Nie jest jasne, jakie działania, jeśli w ogóle, X podjęło wobec jakichkolwiek użytkowników.
Jako prawnik, który bada przecięcie prawa i nowych technologii, postrzegam tę lawinę obrazów tworzonych bez zgody jako przewidywalny rezultat połączenia luźnej polityki moderacji treści X i dostępności potężnych narzędzi generatywnej sztucznej inteligencji.
Szybki rozwój generatywnej sztucznej inteligencji doprowadził do powstania niezliczonych stron internetowych, aplikacji i chatbotów, które umożliwiają użytkownikom tworzenie materiałów o charakterze seksualnie jednoznacznym, w tym „naginania" obrazów prawdziwych dzieci. Jednak te aplikacje i strony internetowe nie są tak szeroko znane ani używane jak żadna z głównych platform mediów społecznościowych, takich jak X.
Legislatury stanowe i Kongres zareagowały dość szybko. W maju 2025 roku Kongres uchwalił Take It Down Act, która czyni przestępstwem karnym publikowanie materiałów o charakterze seksualnie jednoznacznym przedstawiających rzeczywiste osoby bez ich zgody. Take It Down Act kryminalizuje zarówno publikację bez zgody „intymnych przedstawień wizualnych" identyfikowalnych osób, jak i wygenerowanych przez AI lub w inny sposób komputerowo przedstawień identyfikowalnych osób.
Te przepisy karne mają zastosowanie wyłącznie do osób, które publikują treści o charakterze seksualnie jednoznacznym, a nie do platform, które rozpowszechniają treści, takich jak strony mediów społecznościowych.
Inne postanowienia Take It Down Act wymagają jednak od platform ustanowienia procesu umożliwiającego przedstawionym osobom złożenie wniosku o usunięcie obrazów. Po złożeniu „Wniosku o usunięcie" platforma musi usunąć przedstawienie o charakterze seksualnie jednoznacznym w ciągu 48 godzin. Jednak te wymogi nie wchodzą w życie do 19 maja 2026 roku.
Tymczasem wnioski użytkowników o usunięcie materiałów o charakterze seksualnie jednoznacznym wyprodukowanych przez Grok najwyraźniej pozostały bez odpowiedzi. Nawet matka jednego z dzieci Elona Muska, Ashley St. Clair, nie była w stanie skłonić X do usunięcia fałszywych zseksualizowanych obrazów przedstawiających ją, które fani Muska wyprodukowali za pomocą Grok. The Guardian donosi, że St. Clair powiedziała, iż jej „skargi do pracowników X nie doprowadziły do niczego".
To mnie nie dziwi, ponieważ Musk zlikwidował grupę doradczą ds. zaufania i bezpieczeństwa ówczesnego Twittera wkrótce po przejęciu platformy i zwolnił 80% inżynierów firmy zajmujących się zaufaniem i bezpieczeństwem. Zespoły ds. zaufania i bezpieczeństwa zazwyczaj odpowiadają za moderację treści i inicjatywy zapobiegające nadużyciom w firmach technologicznych.
Publicznie wygląda na to, że Musk bagatelizuje powagę sytuacji. Podobno Musk zamieszczał emotikony śmiechu i płaczu w odpowiedzi na niektóre obrazy, a X odpowiedział na pytanie reportera Reutersa automatyczną odpowiedzią „Legacy Media Lies".
Pozwy cywilne, takie jak ten złożony przez rodziców Adama Raine'a, nastolatka, który popełnił samobójstwo w kwietniu 2025 roku po interakcji z ChatGPT OpenAI, są jednym ze sposobów pociągnięcia platform do odpowiedzialności. Jednak pozwy napotykają trudności w Stanach Zjednoczonych ze względu na Sekcję 230 ustawy Communications Decency Act, która ogólnie chroni platformy mediów społecznościowych przed odpowiedzialnością prawną za treści, które użytkownicy publikują na ich platformach.
Sędzia Sądu Najwyższego Clarence Thomas i wielu prawników argumentowało jednak, że Sekcja 230 była stosowana zbyt szeroko przez sądy. Generalnie zgadzam się, że immunitet Sekcji 230 wymaga zawężenia, ponieważ uwalnianie firm technologicznych i ich platform od odpowiedzialności za ich świadome decyzje projektowe — sposób, w jaki ich oprogramowanie jest zbudowane, jak oprogramowanie działa i co oprogramowanie produkuje — wykracza poza zakres ochrony Sekcji 230.
W tym przypadku X albo świadomie, albo przez zaniedbanie nie wdrożyło zabezpieczeń i kontroli w Grok, aby uniemożliwić użytkownikom generowanie obrazów o charakterze seksualnie jednoznacznym przedstawiających identyfikowalne osoby. Nawet jeśli Musk i X uważają, że użytkownicy powinni mieć możliwość generowania obrazów o charakterze seksualnie jednoznacznym przedstawiających osoby dorosłe za pomocą Grok, uważam, że w żadnym świecie X nie powinno uniknąć odpowiedzialności za zbudowanie produktu, który generuje materiały o charakterze seksualnie jednoznacznym przedstawiające prawdziwe dzieci.
Jeśli ludzie nie mogą pociągnąć platform takich jak X do odpowiedzialności za pomocą pozwów cywilnych, to zadanie ich zbadania i uregulowania przypada rządowi federalnemu. Na przykład Federalna Komisja Handlu, Departament Sprawiedliwości lub Kongres mogłyby zbadać X w związku z generowaniem przez Grok materiałów o charakterze seksualnie jednoznacznym bez zgody. Jednak biorąc pod uwagę odnowione więzi polityczne Muska z prezydentem Donaldem Trumpem, nie spodziewam się poważnych dochodzeń i odpowiedzialności w najbliższym czasie.
Na razie międzynarodowi regulatorzy wszczęli dochodzenia wobec X i Grok. Francuskie władze rozpoczęły dochodzenia w sprawie „proliferacji deepfake'ów o charakterze seksualnie jednoznacznym" z Grok, a Irlandzka Rada ds. Wolności Obywatelskich i Digital Rights Ireland zdecydowanie wezwały irlandzką policję krajową do zbadania „masowej orgii rozbierania". Brytyjski urząd regulacyjny Office of Communications oświadczył, że bada sprawę, a regulatorzy w Komisji Europejskiej, Indiach i Malezji podobno również prowadzą dochodzenia wobec X.
W Stanach Zjednoczonych prawdopodobnie najlepszym sposobem działania do czasu wejścia w życie Take It Down Act w maju jest, aby ludzie domagali się działania od wybranych urzędników. – Rappler.com
Artykuł pierwotnie ukazał się w The Conversation.
Wayne Unger, profesor nadzwyczajny prawa, Quinnipiac University


