10 bang đã thông qua luật để hình sự hóa việc tạo ra hoặc phát tán deepfake một cách cụ thể. Indiana có khả năng sớm gia nhập danh sách đang ngày càng tăng bằng cách mở rộng10 bang đã thông qua luật để hình sự hóa việc tạo ra hoặc phát tán deepfake một cách cụ thể. Indiana có khả năng sớm gia nhập danh sách đang ngày càng tăng bằng cách mở rộng

Nội Dung Khiêu Dâm AI Không Đồng Thuận Sẽ Biến Tất Cả Chúng Ta Thành Nạn Nhân: Liệu Luật Pháp Có Theo Kịp?

Bài viết này được đồng xuất bản với The 19th, một tòa soạn phi lợi nhuận đưa tin về giới tính, chính trị và chính sách. Đăng ký nhận bản tin của The 19th tại đây.

\ Hơn hai chục học sinh tại Trường Trung học Westfield ở New Jersey đã vô cùng kinh hoàng khi biết rằng những hình ảnh khỏa thân của họ đang được lan truyền giữa các bạn học. Theo nhà trường, một số học sinh đã sử dụng Trí tuệ Nhân tạo (AI) để tạo ra hình ảnh khiêu dâm của người khác từ những bức ảnh gốc. Và họ không phải là những cô gái tuổi teen duy nhất bị làm nạn nhân bởi những bức ảnh khỏa thân giả mạo: Học sinh ở Washington State và Canada cũng đã báo cáo phải đối mặt với những tình huống tương tự khi khả năng chỉnh sửa ảnh một cách chân thực ngày càng được tiếp cận rộng rãi hơn thông qua các trang web và ứng dụng.

\ Sự báo động ngày càng tăng xung quanh deepfakes—hình ảnh hoặc video do AI tạo ra—nói chung đã được khuếch đại hơn nữa vào tháng Giêng, khi một deepfake liên quan đến siêu sao Taylor Swift lan truyền nhanh chóng qua mạng xã hội.

\ Carrie Goldberg, một luật sư đại diện cho nạn nhân của nội dung khiêu dâm không đồng thuận—thường được gọi là revenge porn—trong hơn một thập kỷ, cho biết bà chỉ bắt đầu nghe từ các nạn nhân của hình ảnh do máy tính tạo ra gần đây.

\ "Công ty của tôi đã gặp các nạn nhân của deepfakes có lẽ khoảng năm năm nay, và chủ yếu là những người nổi tiếng," Goldberg nói. "Bây giờ, nó đang trở thành trẻ em làm điều đó với trẻ em để làm tổn thương. Nó có lẽ thực sự bị báo cáo thiếu vì nạn nhân có thể không biết rằng có biện pháp pháp lý, và không hoàn toàn rõ ràng trong tất cả các trường hợp liệu có hay không."

\ Các cơ quan quản lý đang cố gắng bắt kịp. Trong năm qua hoặc lâu hơn, 10 tiểu bang đã thông qua luật để hình sự hóa việc tạo ra hoặc phát tán deepfakes cụ thể. Những tiểu bang này—bao gồm California, Florida, Georgia, Hawaii, Illinois, Minnesota, New York, South Dakota, Texas và Virginia—đã phác thảo các hình phạt từ tiền phạt đến thời gian tù. Indiana có khả năng sớm tham gia danh sách ngày càng tăng bằng cách mở rộng luật hiện tại về nội dung khiêu dâm không đồng thuận.

\ Dân biểu Indiana Sharon Negele, một đảng viên Cộng hòa, đã soạn thảo đề xuất mở rộng. Luật hiện hành định nghĩa "revenge porn" là việc tiết lộ hình ảnh riêng tư, chẳng hạn như bất kỳ hình ảnh nào mô tả quan hệ tình dục, bộ phận sinh dục lộ ra, mông hoặc ngực phụ nữ, mà không có sự đồng ý của cá nhân được mô tả trong hình ảnh. Dự luật được đề xuất của Negele đã thông qua cả hai viện và hiện đang chờ chữ ký của thống đốc.

\ Negele cho biết bà có động lực cập nhật bộ luật hình sự của Indiana khi nghe câu chuyện của một giáo viên trung học phát hiện ra rằng một số học sinh của cô đã phát tán hình ảnh deepfake của cô. Điều đó "cực kỳ phá hoại" cuộc sống cá nhân của giáo viên, và Negele đã ngạc nhiên khi thấy rằng những kẻ phạm tội không thể bị truy tố theo luật hiện hành.

\ "Nó bắt đầu với việc tôi tìm hiểu về công nghệ hiện có và đọc về từng sự cố liên tiếp về việc khuôn mặt của mọi người được gắn vào một cơ thể được tạo ra trông vô cùng thật và chân thực," Negele nói. "Thật đáng buồn. Là một người mẹ và bà và nghĩ về những gì có thể xảy ra với gia đình tôi và bản thân tôi—thật sốc. Chúng ta phải vượt lên trước những thứ như thế này."

\ Goldberg, có công ty luật chuyên về tội phạm tình dục, cho biết bà dự đoán nhiều tiểu bang hơn sẽ tiếp tục mở rộng luật hiện có của họ để bao gồm ngôn ngữ AI.

\ "Mười năm trước, chỉ có ba tiểu bang có luật về revenge porn hoặc lạm dụng tình dục dựa trên hình ảnh," Goldberg nói. "Bây giờ, 48 tiểu bang đã cấm revenge porn, và nó thực sự đã tạo ra sự giảm thiểu to lớn trong revenge porn—không có gì ngạc nhiên—đúng như những người ủng hộ chúng tôi đã nói. Toàn bộ sự gia tăng của deepfakes đã lấp đầy khoảng trống như một cách mới để xúc phạm tình dục ai đó."

\ Năm 2023, hơn 143,000 video do AI tạo ra mới đã được đăng trực tuyến, theo The Associated Press. Đó là một bước nhảy vọt khổng lồ so với năm 2019, khi các trang web hoặc ứng dụng "nudify" ít phổ biến hơn, và vẫn có gần 15,000 video giả này trực tuyến, theo báo cáo từ Deeptrace Labs, một công ty tình báo về mối đe dọa hình ảnh. Ngay cả khi đó, những video đó—96 phần trăm trong số đó có nội dung khiêu dâm không đồng thuận của phụ nữ—đã thu hút hơn 100 triệu lượt xem.

\ Goldberg cho biết các nhà hoạch định chính sách và công chúng đều có vẻ có động lực hơn để cấm hình ảnh khỏa thân do AI tạo ra đặc biệt vì hầu như bất kỳ ai cũng có thể là nạn nhân. Có sự đồng cảm nhiều hơn.

\ "Với revenge porn, trong làn sóng thảo luận đầu tiên, mọi người đều đổ lỗi cho nạn nhân và khiến họ có vẻ như là một loại kẻ biến thái vì chụp ảnh hoặc ngu ngốc vì chia sẻ nó với người khác," Goldberg nói. "Với deepfakes, bạn không thể thực sự đổ lỗi cho nạn nhân vì điều duy nhất họ làm là có một cơ thể."

\ Amanda Manyame, một cố vấn về quyền kỹ thuật số có trụ sở tại Nam Phi cho Equality Now, một tổ chức nhân quyền quốc tế tập trung vào việc giúp đỡ phụ nữ và trẻ em gái, cho biết hầu như không có sự bảo vệ nào cho nạn nhân của deepfakes tại Hoa Kỳ. Manyame nghiên cứu các chính sách và luật pháp trên khắp thế giới, phân tích những gì đang hoạt động và cung cấp tư vấn pháp lý về quyền kỹ thuật số, đặc biệt là về bóc lột và lạm dụng tình dục có sự hỗ trợ của công nghệ.

\ "Khoảng trống lớn nhất là Hoa Kỳ không có luật liên bang," Manyame nói. "Thách thức là vấn đề được quản lý từng tiểu bang, và đương nhiên, không có sự thống nhất hoặc phối hợp khi nói đến sự bảo vệ."

\ Tuy nhiên, hiện tại có một sự thúc đẩy trên Capitol Hill: Một nhóm th参议员 lưỡng đảng đã giới thiệu vào tháng Giêng Đạo luật Phá vỡ Hình ảnh Giả mạo Rõ ràng và Chỉnh sửa Không Đồng thuận năm 2024—còn được gọi là Đạo luật DEFIANCE. Luật được đề xuất nhằm mục đích ngăn chặn sự phát tán của nội dung tình dục rõ ràng, không đồng thuận.

\ "Không ai—không phải người nổi tiếng cũng không phải người Mỹ bình thường—nên phải thấy mình xuất hiện trong nội dung khiêu dâm AI," Thượng nghị sĩ Cộng hòa Josh Hawley, một đồng bảo trợ của dự luật, nói trong một tuyên bố. "Những người vô tội có quyền bảo vệ danh tiếng của họ và buộc những kẻ phạm tội chịu trách nhiệm trước tòa án." Dân biểu Alexandria Ocasio-Cortez đã giới thiệu một dự luật đối tác tại Hạ viện.

\ Theo khảo sát mới từ Data for Progress, 85 phần trăm cử tri có khả năng trên phổ chính trị cho biết họ ủng hộ Đạo luật DEFIANCE được đề xuất—với 72 phần trăm phụ nữ ủng hộ mạnh mẽ so với 62 phần trăm nam giới.

\ Nhưng nam giới trẻ hơn có nhiều khả năng phản đối Đạo luật DEFIANCE, với khoảng một trong năm nam giới dưới 45 tuổi (22 phần trăm) cho biết họ phản đối mạnh mẽ hoặc có phần phản đối luật cho phép đối tượng của deepfakes không đồng thuận rõ ràng kiện người tạo ra.

\ Danielle Deiseroth, giám đốc điều hành của Data for Progress, cho biết vấn đề này cho thấy một trong những "sự tương phản sắc nét hơn" giữa nam giới và phụ nữ trẻ mà bà đã thấy trong một thời gian.

\ "Chúng tôi có thể tự tin nói rằng phụ nữ và nam giới dưới 45 tuổi có ý kiến phân kỳ về chính sách này," Deiseroth nói. "Đây là một vấn đề ảnh hưởng không cân xứng đến phụ nữ, đặc biệt là phụ nữ trẻ, những người có nhiều khả năng là nạn nhân của revenge porn. Và tôi nghĩ đó thực sự là nguyên nhân gốc rễ ở đây."

\ Goldberg cho biết việc tạo ra các chính sách để hình sự hóa những kẻ xấu là một khởi đầu tốt nhưng cuối cùng là không đủ. Một bước tiếp theo tốt, bà nói, sẽ là thực hiện hành động pháp lý nhắm vào các nhà phân phối trực tuyến, như App Store và Google Play, đang cung cấp các sản phẩm chủ yếu được sử dụng cho các hoạt động tội phạm. Các nền tảng truyền thông xã hội và ứng dụng nhắn tin tức thời, nơi những hình ảnh rõ ràng này được phân phối, cũng nên chịu trách nhiệm, Goldberg bổ sung.

\ Các nhà sáng lập của #MyImageMyChoice, một tổ chức cơ sở làm việc để giúp đỡ nạn nhân của lạm dụng hình ảnh riêng tư, đồng ý rằng cần làm nhiều hơn bởi các công ty tư nhân tham gia vào việc tạo ra và phân phối những hình ảnh này.

\ Các nhà sáng lập—Sophie Compton, Reuben Hamlyn và Elizabeth Woodward—chỉ ra rằng các công cụ tìm kiếm như Google dẫn phần lớn lưu lượng truy cập web tổng cộng đến các trang web khiêu dâm deepfake, trong khi các công ty thẻ tín dụng xử lý thanh toán của họ. Các nhà cung cấp dịch vụ Internet cho phép mọi người truy cập chúng, trong khi các dịch vụ lớn như Amazon, Cloudflare và Github của Microsoft lưu trữ chúng. Và các trang mạng xã hội như X cho phép nội dung lưu hành trên quy mô lớn. Google đã thay đổi chính sách vào năm 2015 và bắt đầu cho phép nạn nhân gửi yêu cầu xóa từng phần nội dung khỏi kết quả tìm kiếm và kể từ đó đã mở rộng chính sách đối với lạm dụng deepfake. Tuy nhiên, công ty không hệ thống hóa việc xóa các trang web bạo lực tình dục dựa trên hình ảnh và lạm dụng deepfake.

\ "Các công ty công nghệ có quyền chặn, bỏ lập chỉ mục hoặc từ chối dịch vụ cho các trang web này—các trang web mà toàn bộ sự tồn tại được xây dựng dựa trên việc vi phạm sự đồng thuận và kiếm lợi từ chấn thương," Compton, Hamlyn và Woodward nói trong một tuyên bố với The 19th. "Nhưng họ đã chọn không làm."

\ Goldberg chỉ ra tốc độ mà deepfakes của Taylor Swift lan truyền. Một hình ảnh được chia sẻ trên X, trước đây được gọi là Twitter, đã được xem 47 triệu lần trước khi tài khoản đăng nó bị đình chỉ. Hình ảnh tiếp tục lan truyền bất chấp nỗ lực từ các công ty truyền thông xã hội để xóa chúng.

\ "Những bức ảnh bạo lực, kỳ thị phụ nữ của Taylor Swift, đẫm máu và khỏa thân tại một trận bóng đá Kansas City Chiefs, là biểu tượng của vấn đề," Goldberg nói. "Mức độ phân phối đó, bao gồm trên các trang web thực sự chính thống, gửi thông điệp cho mọi người rằng việc tạo ra nội dung này là được. Đối với tôi, đó là một khoảnh khắc thực sự then chốt và khá đáng sợ."

\ Với bản chất cấp cao của nạn nhân, sự cố đã gây ra sự phẫn nộ rõ ràng và lan rộng từ những người hâm mộ của Swift và thu hút sự chú ý của công chúng đến vấn đề. Goldberg cho biết bà đã kiểm tra xem liệu có nhà phân phối trực tuyến nào đã xóa sản phẩm khỏi cửa hàng trực tuyến của họ giúp tạo ra deepfakes tình dục rõ ràng dễ dàng hơn và rẻ hơn—và bà đã nhẹ nhõm khi thấy họ đã làm.

\ Khi các nhà hoạch định chính sách và tòa án của đất nước tiếp tục cố gắng phản ứng với công nghệ phát triển nhanh chóng và ngày càng dễ tiếp cận, Goldberg cho biết điều quan trọng là các nhà lập pháp tiếp tục tham khảo ý kiến các chuyên gia và những người làm việc trực tiếp với nạn nhân, chẳng hạn như luật sư, nhân viên xã hội và người ủng hộ. Các nhà lập pháp đang điều chỉnh các ý tưởng trừu tượng hoặc công nghệ tiến bộ nhanh chóng có thể là một "công thức cho thảm họa" nếu không, bà bổ sung.

\ Manyame cũng nhấn mạnh tầm quan trọng trong việc nói chuyện trực tiếp với những người sống sót khi đưa ra quyết định chính sách, nhưng bổ sung rằng các nhà lập pháp cũng cần suy nghĩ toàn diện hơn về vấn đề và không bị sa lầy quá nhiều bởi công nghệ cụ thể—với rủi ro luôn bị tụt lại phía sau. Ví dụ, Manyame cho biết công chúng nói chung chỉ hiện bắt đầu hiểu các rủi ro do AI và deepfakes gây ra—điều mà bà đã giúp viết một báo cáo vào năm 2021. Nhìn về phía trước, Manyame đã suy nghĩ về Metaverse—một không gian ảo thực tế ảo—nơi người dùng đang bắt đầu đối mặt với các trường hợp hiếp dâm, quấy rối tình dục và lạm dụng.

\ "Rất nhiều luật về lạm dụng tình dục dựa trên hình ảnh hơi lỗi thời một chút vì chúng nói cụ thể về revenge porn," Manyame nói. "Revenge porn về mặt lịch sử là một vấn đề bạo lực gia đình hơn, ở chỗ nó là một đối tác thân mật chia sẻ hình ảnh bóc lột tình dục của đối tác trước đây hoặc hiện tại của họ. Điều đó không phải lúc nào cũng là trường hợp với deepfakes, vì vậy những luật này có thể không cung cấp đủ sự bảo vệ."

\ Ngoài ra, Manyame lập luận rằng nhiều chính sách trong số này không mở rộng định nghĩa "hình ảnh riêng tư" để xem xét các nền tảng văn hóa hoặc tôn giáo đa dạng. Ví dụ, đối với một số phụ nữ Hồi giáo, có thể vi phạm và làm nhục tương tự khi tạo và phát tán hình ảnh đầu không được che mà không có hijab.

\ Khi nói đến các giải pháp, Manyame chỉ ra các hành động có thể được thực hiện bởi những người tạo ứng dụng, cơ quan quản lý nền tảng và các nhà lập pháp.

\ Ở giai đoạn thiết kế, nhiều biện pháp an toàn hơn có thể được nhúng để hạn chế tác hại. Ví dụ, Manyame cho biết có một số ứng dụng có thể chụp ảnh phụ nữ và tự động loại bỏ quần áo của họ trong khi chức năng tương tự đó không hoạt động trên ảnh của nam giới. Có những cách ở phía sau của các ứng dụng này để làm cho việc loại bỏ quần áo khỏi bất kỳ ai khó hơn, bất kể giới tính của họ.

\ Tuy nhiên, một khi deepfakes độc hại đã được tạo ra và đăng, Manyame cho biết các nền tảng truyền thông xã hội và nhắn tin nên có cơ chế tốt hơn để xóa nội dung sau khi nạn nhân báo cáo. Nhiều lần, nạn nhân cá nhân bị bỏ qua. Manyame cho biết bà đã nhận thấy những công ty truyền thông xã hội lớn này có nhiều khả năng xóa những deepfakes này ở các quốc gia, chẳng hạn như Úc, có cơ quan quản lý bên thứ ba để vận động thay mặt cho nạn nhân.

\ "Cần có các cơ chế giám sát và thực thi được bao gồm trong bất kỳ giải pháp nào," Manyame nói. "Một trong những điều mà chúng tôi nghe từ rất nhiều người sống sót là họ chỉ muốn hình ảnh của họ được gỡ xuống. Nó thậm chí không phải về việc trải qua một quy trình pháp lý. Họ chỉ muốn nội dung đó biến mất."

\ Manyame cho biết đó không phải là yêu cầu quá lớn đối với nhiều công ty công nghệ và cơ quan quản lý chính phủ vì nhiều công ty đã phản ứng nhanh chóng để xóa các ảnh không phù hợp liên quan đến trẻ em. Đó chỉ là vấn đề mở rộng những loại bảo vệ đó cho phụ nữ, bà bổ sung.

\ "Mối quan tâm của tôi là đã có một sự vội vã để thực hiện các luật và chính sách về A.I. mà không xem xét một số nguyên nhân gốc rễ của những tác hại này là gì. Đây là một vấn đề nhiều lớp, và có nhiều lớp khác cần được giải quyết."


Tín dụng

  • Mariel Padilla cho The 19th

Minh họa

  • Rena Li

Biên tập

  • Flora Peir cho The 19th

\ Cũng được xuất bản tại đây

\ Ảnh bởi Steve Johnson trên Unsplash

Cơ hội thị trường
Logo Sleepless AI
Giá Sleepless AI(AI)
$0.03626
$0.03626$0.03626
+1.59%
USD
Biểu đồ giá Sleepless AI (AI) theo thời gian thực
Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ [email protected] để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.