Tóm tắt nhanh
- OpenAI công bố “Child Safety Blueprint” nhằm đối phó với tình trạng lạm dụng tình dục trẻ em do AI hỗ trợ.
- Khung này tập trung vào cải cách pháp lý, tăng cường phối hợp báo cáo và tích hợp các cơ chế bảo vệ ngay trong hệ thống AI.
- Đề xuất được xây dựng với sự tham gia của các tổ chức bảo vệ trẻ em, tổng chưởng lý và các tổ chức phi lợi nhuận.
Nhằm giải quyết sự gia tăng của các hành vi lạm dụng tình dục trẻ em có sự hỗ trợ của AI, OpenAI vào thứ Tư đã công bố một bản khung chính sách, đề xuất các biện pháp an toàn mới mà ngành công nghệ có thể áp dụng để hạn chế việc sử dụng AI trong việc tạo ra nội dung lạm dụng trẻ em.
Trong khung này, OpenAI liệt kê các biện pháp pháp lý, vận hành và kỹ thuật nhằm tăng cường bảo vệ trước các hình thức lạm dụng do AI hỗ trợ, đồng thời cải thiện sự phối hợp giữa các công ty công nghệ và cơ quan điều tra.
“Lạm dụng tình dục trẻ em là một trong những thách thức cấp bách nhất của kỷ nguyên số,” công ty cho biết. “AI đang nhanh chóng thay đổi cả cách các mối nguy này xuất hiện trong toàn ngành lẫn cách chúng có thể được xử lý ở quy mô lớn.”
OpenAI cho biết đề xuất này đã tích hợp ý kiến từ các tổ chức hoạt động trong lĩnh vực bảo vệ trẻ em và an toàn trực tuyến, bao gồm National Center for Missing and Exploited Children và Attorney General Alliance cùng lực lượng đặc nhiệm AI của họ.
“AI tạo sinh đang thúc đẩy tội phạm lạm dụng tình dục trẻ em trực tuyến theo những cách đáng lo ngại—giảm rào cản, tăng quy mô và tạo ra các hình thức gây hại mới,” Michelle DeLaune, Chủ tịch & CEO của National Center for Missing & Exploited Children, cho biết. “Tuy nhiên, chúng tôi cũng khuyến khích khi thấy các công ty như OpenAI suy nghĩ về cách thiết kế các công cụ này một cách có trách nhiệm hơn, với các biện pháp bảo vệ được tích hợp ngay từ đầu.”
OpenAI cho biết khung này kết hợp các tiêu chuẩn pháp lý, hệ thống báo cáo trong ngành và các biện pháp bảo vệ kỹ thuật trong mô hình AI. Các biện pháp này nhằm giúp phát hiện rủi ro lạm dụng sớm hơn và nâng cao trách nhiệm giải trình trên các nền tảng trực tuyến.
Khung đề xuất xác định các lĩnh vực hành động, bao gồm:
- Cập nhật luật để xử lý nội dung lạm dụng trẻ em do AI tạo ra hoặc bị chỉnh sửa
- Cải thiện cách các nền tảng báo cáo tín hiệu lạm dụng và phối hợp với cơ quan điều tra
- Xây dựng các cơ chế bảo vệ trong hệ thống AI để ngăn chặn việc lạm dụng
“Không có một giải pháp đơn lẻ nào có thể giải quyết vấn đề này,” OpenAI cho biết. “Khung này kết hợp các cách tiếp cận pháp lý, vận hành và kỹ thuật để nhận diện rủi ro tốt hơn, tăng tốc phản ứng và nâng cao trách nhiệm, đồng thời đảm bảo các cơ quan thực thi pháp luật vẫn đủ mạnh khi công nghệ phát triển.”
Khung này được đưa ra trong bối cảnh các tổ chức bảo vệ trẻ em ngày càng lo ngại rằng các hệ thống AI tạo sinh có khả năng tạo hình ảnh chân thực có thể bị lạm dụng để tạo ra các nội dung giả hoặc chỉnh sửa liên quan đến trẻ vị thành niên. Vào tháng 2, UNICEF đã kêu gọi các chính phủ trên toàn cầu ban hành luật hình sự hóa nội dung lạm dụng trẻ em do AI tạo ra.
Vào tháng 1, European Commission đã mở cuộc điều tra chính thức xem liệu X (trước đây là Twitter) có vi phạm quy định số của EU khi không ngăn chặn được việc mô hình AI Grok tạo nội dung bất hợp pháp hay không. Các cơ quan quản lý tại Anh và Úc cũng đã mở các cuộc điều tra tương tự.
OpenAI nhấn mạnh rằng luật pháp đơn thuần sẽ không đủ để ngăn chặn vấn nạn này, và các tiêu chuẩn ngành mạnh mẽ hơn sẽ cần thiết khi các hệ thống AI ngày càng phát triển.
“Bằng cách ngăn chặn sớm các hành vi khai thác, cải thiện chất lượng tín hiệu gửi tới cơ quan thực thi pháp luật và tăng cường trách nhiệm trong toàn hệ sinh thái, khung này hướng tới việc ngăn chặn tổn hại trước khi xảy ra và đảm bảo bảo vệ trẻ em nhanh hơn khi rủi ro xuất hiện,” OpenAI cho biết.
Bản tin Daily Debrief
Bắt đầu mỗi ngày với những tin tức nổi bật nhất, cùng các nội dung độc quyền, podcast, video và nhiều hơn nữa.