Tóm tắt nhanh
- OpenAI đang đi theo hướng của Anthropic khi hạn chế truy cập các mô hình AI an ninh mạng mạnh nhất.
- Các mô hình AI “frontier” hiện được xem là quá rủi ro để phát hành rộng rãi.
- AI cấp cao đang chuyển sang mô hình truy cập giới hạn (invite-only, kiểm soát chặt chẽ).
Theo Axios, OpenAI đang phát triển một sản phẩm an ninh mạng và dự kiến chỉ phát hành thông qua chương trình “Trusted Access for Cyber”. Chương trình này được công bố từ tháng 2, nhằm triển khai có kiểm soát, giữ các công cụ mạnh ngoài tầm với của công chúng và chỉ cung cấp cho các tổ chức phòng thủ an ninh mạng.
OpenAI triển khai chương trình này sau khi ra mắt GPT-5.3-Codex—mô hình mạnh nhất hiện tại trong lĩnh vực cybersecurity—và hỗ trợ người tham gia bằng 10 triệu USD tín dụng API.
Động thái này diễn ra trong bối cảnh lo ngại ngày càng gia tăng về việc AI mạnh có thể vượt quá khả năng kiểm soát của các hệ thống hiện tại. Gần đây, Anthropic cũng gây chú ý khi chính họ phải “tự hạn chế” mô hình Claude Mythos.
Anthropic cho biết Mythos có khả năng phát hiện lỗ hổng bảo mật cực kỳ hiệu quả—bao gồm cả zero-day trên các hệ điều hành và trình duyệt lớn—đến mức họ quyết định chỉ cấp quyền truy cập cho một nhóm tổ chức được chọn lọc.
Hiện tại, OpenAI được cho là đang áp dụng cách tiếp cận tương tự.
Anthropic cũng đang vướng vào tranh chấp pháp lý sau khi Lầu Năm Góc coi công ty là rủi ro chuỗi cung ứng do từ chối nới lỏng các hạn chế sử dụng Claude cho giám sát và vũ khí tự động. Các cơ quan liên bang đã tăng cường giám sát các tiêu chuẩn an toàn của các công ty AI từ đầu tháng 4.
Cho đến nay, OpenAI chưa chính thức xác nhận hay phủ nhận thông tin này.
Lý do của việc hạn chế là rất rõ ràng. Phiên bản thử nghiệm Mythos từng bị rò rỉ cho thấy nó có thể phát hiện “hàng chục nghìn lỗ hổng” mà ngay cả các chuyên gia bảo mật cấp cao cũng khó tìm ra. Mô hình này được mô tả là “có tính tự chủ cao” và có khả năng suy luận ngang với một chuyên gia an ninh cấp cao—một năng lực nếu được mở rộng đại trà có thể gây rủi ro lớn.
Phản ứng của Anthropic là triển khai Project Glasswing—một chương trình truy cập kiểm soát, chỉ cung cấp Mythos cho các tổ chức đã được thẩm định như Amazon Web Services, Apple, Cisco, Google, JPMorgan Chase, Microsoft, Nvidia và nhiều đơn vị hạ tầng quan trọng khác.
Việc OpenAI hạn chế truy cập các sản phẩm tương tự được xem là cách đi trước áp lực pháp lý—tự kiểm soát trước khi bị cơ quan quản lý can thiệp.
Xu hướng chung đang hình thành trong ngành AI là các mô hình mạnh nhất sẽ không còn được phát hành rộng rãi, mà sẽ được phân phối giống như nghiên cứu mật—chọn lọc, có điều kiện, và chỉ dành cho các tổ chức đủ năng lực và trách nhiệm.
Bản tin Daily Debrief
Bắt đầu mỗi ngày với những tin tức nổi bật nhất, cùng các bài phân tích độc quyền, podcast, video và nhiều nội dung khác.