Tin tặc và các tội phạm khác có thể dễ dàng chiếm đoạt các máy tính vận hành các mô hình ngôn ngữ lớn mã nguồn mở bên ngoài các rào cản và ràng buộc của các nền tảng trí tuệ nhân tạo lớn, tạo ra rủi ro bảo mật và các lỗ hổng, các nhà nghiên cứu cho biết vào Thứ Năm, ngày 29 tháng 1.
Tin tặc có thể nhắm mục tiêu vào các máy tính chạy LLM và chỉ đạo chúng thực hiện các hoạt động spam, tạo nội dung lừa đảo qua mạng hoặc các chiến dịch thông tin sai lệch, né tránh các giao thức bảo mật nền tảng, các nhà nghiên cứu cho biết.
Nghiên cứu được thực hiện chung bởi các công ty an ninh mạng SentinelOne và Censys trong suốt 293 ngày và được chia sẻ độc quyền với Reuters, cung cấp một góc nhìn mới về quy mô của các trường hợp sử dụng có khả năng bất hợp pháp đối với hàng nghìn triển khai LLM mã nguồn mở. Chúng bao gồm tấn công mạng, phát ngôn thù hận và quấy rối, nội dung bạo lực hoặc kinh dị, trộm cắp dữ liệu cá nhân, Lừa đảo qua mạng hoặc gian lận, và trong một số trường hợp là tài liệu lạm dụng tình dục trẻ em, các nhà nghiên cứu cho biết.
Mặc dù tồn tại hàng nghìn biến thể LLM mã nguồn mở, một phần đáng kể các LLM trên các máy chủ có thể truy cập internet là các biến thể của Llama của Meta, Gemma của Google DeepMind và những công cụ khác, theo các nhà nghiên cứu. Trong khi một số mô hình mã nguồn mở bao gồm các rào cản, các nhà nghiên cứu đã xác định hàng trăm trường hợp mà các rào cản đã bị loại bỏ rõ ràng.
Các cuộc trò chuyện của ngành AI về kiểm soát bảo mật đang "bỏ qua loại công suất dư thừa này rõ ràng đang được sử dụng cho tất cả các loại công việc khác nhau, một số hợp pháp, một số rõ ràng là tội phạm," Juan Andres Guerrero-Saade, giám đốc điều hành nghiên cứu tình báo và bảo mật tại SentinelOne cho biết. Guerrero-Saade ví tình huống này giống như một "tảng băng trôi" không được tính toán đúng cách trong toàn ngành và cộng đồng mã nguồn mở.
Nghiên cứu đã phân tích các triển khai có thể truy cập công khai của các LLM mã nguồn mở được triển khai thông qua Ollama, một công cụ cho phép mọi người và tổ chức chạy phiên bản của riêng họ về các mô hình ngôn ngữ lớn khác nhau.
Các nhà nghiên cứu có thể thấy các lời nhắc hệ thống, đó là các hướng dẫn chỉ định cách mô hình hoạt động, trong khoảng một phần tư số LLM mà họ quan sát. Trong số đó, họ xác định rằng 7,5% có khả năng cho phép hoạt động có hại.
Khoảng 30% số máy chủ được các nhà nghiên cứu quan sát đang hoạt động từ Trung Quốc và khoảng 20% ở Hoa Kỳ.
Rachel Adams, CEO và người sáng lập Trung tâm Toàn cầu về Quản trị AI, cho biết trong một email rằng một khi các mô hình mở được phát hành, trách nhiệm đối với những gì xảy ra tiếp theo trở thành chia sẻ trên toàn hệ sinh thái, bao gồm cả các phòng thí nghiệm khởi nguồn.
"Các phòng thí nghiệm không chịu trách nhiệm cho mọi việc lạm dụng hạ nguồn (khó lường trước), nhưng họ vẫn giữ nghĩa vụ quan trọng là dự đoán các tác hại có thể lường trước, ghi chép rủi ro và cung cấp công cụ giảm thiểu và hướng dẫn, đặc biệt là do năng lực thực thi toàn cầu không đồng đều," Adams nói.
Người phát ngôn của Meta từ chối trả lời các câu hỏi về trách nhiệm của nhà phát triển trong việc giải quyết các mối quan ngại xung quanh việc lạm dụng hạ nguồn các mô hình mã nguồn mở và cách các mối quan ngại có thể được báo cáo, nhưng lưu ý các công cụ Llama Protection của công ty dành cho các nhà phát triển Llama và Hướng dẫn Sử dụng Có Trách nhiệm Meta Llama của công ty.
Ram Shankar Siva Kumar, Trưởng nhóm AI Red Team của Microsoft, cho biết trong một email rằng Microsoft tin rằng các mô hình mã nguồn mở "đóng vai trò quan trọng" trong nhiều lĩnh vực khác nhau, nhưng, "đồng thời, chúng tôi nhận thức rõ rằng các mô hình mở, giống như tất cả các công nghệ chuyển đổi, có thể bị đối thủ lạm dụng nếu phát hành mà không có các biện pháp bảo vệ thích hợp."
Microsoft thực hiện các đánh giá trước khi phát hành, bao gồm các quy trình đánh giá "rủi ro cho các kịch bản tiếp xúc internet, tự lưu trữ và gọi công cụ, nơi việc lạm dụng có thể cao," ông nói. Công ty cũng theo dõi các mối đe dọa mới nổi và các mô hình lạm dụng. "Cuối cùng, đổi mới mở có trách nhiệm đòi hỏi cam kết chung giữa những người sáng tạo, triển khai, nhà nghiên cứu và các nhóm bảo mật."
Ollama không phản hồi yêu cầu bình luận. Google của Alphabet và Anthropic không phản hồi các câu hỏi. – Rappler.com


