OpenAI đã đưa ra cảnh báo vào ngày 10 tháng 12 cho biết các mô hình AI sắp ra mắt của họ có thể tạo ra những rủi ro bảo mật mạng nghiêm trọng. Công ty đứng sau ChatGPT cho biết những mô hình tiên tiến này có thể xây dựng các lỗ hổng zero-day từ xa nhắm vào các hệ thống được bảo vệ tốt.
Công ty AI này cũng lưu ý rằng các mô hình này có thể hỗ trợ các hoạt động xâm nhập doanh nghiệp hoặc công nghiệp phức tạp dẫn đến hậu quả trong thế giới thực. OpenAI đã chia sẻ thông tin này trong một bài đăng blog đề cập đến khả năng ngày càng tăng của công nghệ của họ.
Cảnh báo phản ánh mối lo ngại trong toàn ngành AI về khả năng sử dụng sai mục đích của các mô hình ngày càng mạnh mẽ. Một số công ty công nghệ lớn đã hành động để bảo vệ hệ thống AI của họ khỏi các mối đe dọa tương tự.
Google đã công bố các bản cập nhật bảo mật cho trình duyệt Chrome trong tuần này để chặn các cuộc tấn công tiêm prompt gián tiếp vào các AI Agent. Những thay đổi này diễn ra trước khi triển khai rộng rãi các tính năng tác nhân Gemini trong Chrome.
Anthropic tiết lộ vào tháng 11 năm 2025 rằng các tác nhân đe dọa, có thể liên quan đến một nhóm do nhà nước Trung Quốc tài trợ, đã sử dụng công cụ Claude Code của họ cho một hoạt động gián điệp Hỗ trợ bởi AI. Công ty đã ngăn chặn chiến dịch này trước khi nó gây ra thiệt hại.
OpenAI đã chia sẻ dữ liệu cho thấy tiến bộ nhanh chóng trong khả năng bảo mật mạng của AI. Mô hình GPT-5.1-Codex-Max của công ty đạt 76% trong các thử thách capture-the-flag vào tháng 11 năm 2025.
Điều này thể hiện một bước nhảy vọt so với điểm 27% mà GPT-5 đạt được vào tháng 8 năm 2024. Các thử thách capture-the-flag đo lường khả năng hệ thống có thể định vị và khai thác các điểm yếu bảo mật.
Sự cải thiện chỉ trong vài tháng cho thấy các mô hình AI đang nhanh chóng đạt được khả năng bảo mật mạng tiên tiến. Những kỹ năng này có thể được sử dụng cho cả mục đích phòng thủ và tấn công.
OpenAI cho biết họ đang xây dựng các mô hình mạnh mẽ hơn cho công việc bảo mật mạng phòng thủ. Công ty đang phát triển các công cụ để giúp các đội bảo mật kiểm tra mã và sửa lỗ hổng dễ dàng hơn.
Công ty được Microsoft hậu thuẫn đang sử dụng nhiều lớp bảo mật bao gồm kiểm soát truy cập, tăng cường cơ sở hạ tầng, kiểm soát đầu ra và hệ thống giám sát. OpenAI đang đào tạo các mô hình AI của họ để từ chối các yêu cầu có hại trong khi vẫn hữu ích cho công việc giáo dục và phòng thủ.
Công ty đang mở rộng giám sát trên tất cả các sản phẩm sử dụng các mô hình tiên phong để phát hiện hoạt động mạng độc hại tiềm ẩn. OpenAI đang hợp tác với các nhóm red teaming chuyên gia để kiểm tra và cải thiện hệ thống an toàn của họ.
OpenAI đã giới thiệu Aardvark, một AI Agent hoạt động như một nhà nghiên cứu bảo mật. Công cụ này đang trong giai đoạn Thử nghiệm công khai Beta và có thể quét mã để tìm lỗ hổng và đề xuất bản vá.
Người bảo trì có thể nhanh chóng triển khai các bản sửa lỗi mà Aardvark đề xuất. OpenAI có kế hoạch cung cấp Aardvark miễn phí cho các kho mã nguồn mở phi thương mại được chọn.
Công ty sẽ triển khai một chương trình cung cấp cho người dùng và khách hàng phòng thủ mạng đủ điều kiện quyền truy cập theo cấp bậc vào các khả năng nâng cao. OpenAI đang thành lập Hội đồng Rủi ro Tiên phong, mang các chuyên gia bảo vệ mạng và bảo mật bên ngoài làm việc với các đội nội bộ của họ.
Hội đồng sẽ bắt đầu bằng việc tập trung vào bảo mật mạng trước khi mở rộng sang các lĩnh vực khả năng tiên phong khác. OpenAI sẽ sớm cung cấp chi tiết về chương trình truy cập đáng tin cậy cho người dùng và nhà phát triển làm việc về phòng thủ mạng.
Bài đăng OpenAI Cảnh báo Các Mô hình AI Thế hệ Tiếp theo Gây ra Rủi ro Bảo mật Mạng Cao xuất hiện đầu tiên trên Blockonomi.


