OpenAI công bố khung chính sách mới nhằm ngăn AI bị lạm dụng để tạo nội dung xâm hại trẻ em, nhấn mạnh phối hợp pháp lý, kỹ thuật và thực thi ở quy mô lớn.
OpenAI ngày 9/4 công bố một khung chính sách mới nhằm hỗ trợ ngành công nghệ đối phó với nguy cơ ngày càng gia tăng từ việc lạm dụng trí tuệ nhân tạo (AI) để tạo ra nội dung xâm hại tình dục trẻ em. Động thái này phản ánh một thực tế ngày càng rõ nét: các mô hình AI tạo sinh không chỉ mở rộng năng lực sáng tạo nội dung mà còn có thể làm giảm rào cản, gia tăng tốc độ và quy mô của các hành vi lạm dụng trong môi trường số.
Khung chính sách đặt trọng tâm vào phối hợp liên ngành
Theo OpenAI, khung chính sách mới được xây dựng trên ba trụ cột gồm pháp lý, vận hành và kỹ thuật. Cách tiếp cận này hướng tới việc phát hiện sớm tín hiệu lạm dụng, tăng cường cơ chế báo cáo từ các nền tảng trực tuyến và cải thiện khả năng phối hợp với cơ quan điều tra. Công ty cho rằng không có một giải pháp đơn lẻ nào đủ sức xử lý trọn vẹn thách thức mới nảy sinh từ AI, đặc biệt khi công nghệ liên tục nâng cấp và ngày càng có khả năng tạo ra hình ảnh hoặc nội dung tổng hợp với độ chân thực cao.
Điểm đáng chú ý là OpenAI không chỉ nhấn mạnh vai trò của các biện pháp bảo vệ tích hợp trong mô hình AI, mà còn kêu gọi cập nhật khung pháp luật để xử lý các nội dung lạm dụng tình dục trẻ em được tạo ra hoặc chỉnh sửa bằng AI. Đây là tín hiệu cho thấy tranh luận chính sách đang dịch chuyển từ giai đoạn cảnh báo sang giai đoạn xây dựng chuẩn mực quản lý cụ thể hơn, trong bối cảnh ranh giới giữa nội dung thật và nội dung tổng hợp ngày càng khó nhận diện.
OpenAI cho biết khung đề xuất này được hoàn thiện với sự tham vấn từ nhiều tổ chức hoạt động trong lĩnh vực bảo vệ trẻ em và an toàn trực tuyến, trong đó có Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) và Liên minh Tổng chưởng lý.
Bà Michelle DeLaune, Chủ tịch kiêm Tổng giám đốc NCMEC, nhận định AI tạo sinh đang thúc đẩy tội phạm lạm dụng tình dục trẻ em trực tuyến theo những cách “đáng lo ngại sâu sắc”, do công nghệ này làm giảm chi phí tiếp cận, mở rộng quy mô gây hại và tạo ra những hình thức xâm hại mới.
Thông điệp của OpenAI được đưa ra trong bối cảnh áp lực quản lý toàn cầu gia tăng. Tháng 2 năm nay, UNICEF kêu gọi các chính phủ trên thế giới ban hành luật hình sự hóa nội dung lạm dụng trẻ em do AI tạo ra.
Trước đó, vào tháng 1, Ủy ban châu Âu đã mở điều tra chính thức để xác định liệu nền tảng X có vi phạm các quy định của Liên minh châu Âu hay không, liên quan đến khả năng mô hình AI nội bộ Grok tạo ra nội dung bất hợp pháp. Các cơ quan quản lý tại Vương quốc Anh và Úc cũng đã triển khai các cuộc điều tra tương tự.
Từ góc nhìn chính sách công nghệ, câu chuyện lớn hơn không chỉ nằm ở việc siết kiểm soát một công cụ mới, mà còn ở cách ngành công nghệ tái thiết kế trách nhiệm của mình trong kỷ nguyên AI.
Bằng việc đặt trọng tâm vào cơ chế phòng ngừa sớm, nâng chất lượng tín hiệu gửi tới lực lượng thực thi pháp luật và tăng cường trách nhiệm giải trình trên toàn hệ sinh thái số, OpenAI đang phát đi thông điệp rằng an toàn trẻ em phải trở thành một nguyên tắc thiết kế ngay từ đầu, thay vì chỉ là biện pháp ứng phó sau khi rủi ro đã xảy ra.









































































































































