AI đang trở thành công cụ đẩy mạnh vấn nạn bắt nạt qua mạng, đặc biệt là với thanh thiếu niên, khiến việc bảo vệ trở nên khó khăn hơn.
Theo Newsnationnow, sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) không chỉ mang lại những cơ hội mới cho các ngành công nghiệp, mà còn kéo theo những thách thức nghiêm trọng trong vấn đề bảo vệ quyền riêng tư và an toàn trực tuyến. Một trong những vấn đề đáng lo ngại nhất là sự gia tăng của bắt nạt qua mạng, đặc biệt là đối với thanh thiếu niên.
Theo báo cáo của Viện An toàn Trực tuyến Gia đình, các nền tảng mạng xã hội và ứng dụng nhắn tin ngày càng trở thành môi trường thuận lợi để kẻ xấu lợi dụng, tiếp tục đeo bám và tấn công nạn nhân sau khi đã rời khỏi trường học hoặc nơi làm việc.
Ông Stephen Balkam, Giám đốc điều hành Viện An toàn Trực tuyến Gia đình, AI không chỉ làm phức tạp vấn đề bắt nạt qua mạng mà còn có thể tạo ra các mối đe dọa mới, khó kiểm soát.
Các công cụ AI hiện nay có thể dễ dàng chỉnh sửa hình ảnh, video, thậm chí tạo ra các sản phẩm giả mạo không thể phân biệt với thực tế. Một trong những hình thức tấn công phổ biến là việc sử dụng AI để ghép mặt của một người vào các video khiêu dâm hoặc chỉnh sửa các hình ảnh của họ để xúc phạm, hạ nhục. Điều này không chỉ làm gia tăng mức độ nhục nhã mà nạn nhân phải gánh chịu, mà còn tạo ra những hậu quả lâu dài đối với sức khỏe tinh thần và đời sống cá nhân của họ.
Theo một nghiên cứu gần đây của Trung tâm Nghiên cứu Pew, khoảng 46% thanh thiếu niên từ 13 đến 17 tuổi ở Mỹ đã từng trải qua các hành vi quấy rối hoặc bắt nạt qua mạng.
Những hành vi này thường liên quan đến ngoại hình (chiếm tỷ lệ lớn nhất), lan truyền tin đồn sai lệch hoặc gửi các hình ảnh, video khiêu dâm. Tình trạng này càng trở nên nghiêm trọng khi các công cụ AI ngày càng tinh vi, khiến việc nhận diện hình ảnh giả mạo trở nên khó khăn hơn.
Trong một khảo sát, chỉ có khoảng 50% phụ huynh và thanh thiếu niên có thể phân biệt được hình ảnh thật và hình ảnh giả mạo do AI tạo ra, điều này chứng tỏ sự cần thiết phải có các công cụ hỗ trợ nhận diện AI trong việc ngăn chặn hành vi xâm phạm.
Một trong những giải pháp được các chuyên gia đưa ra là việc yêu cầu các công cụ AI phải có khả năng tạo ra dấu vết nhận diện, qua đó giúp người dùng dễ dàng phân biệt đâu là hình ảnh hoặc video do AI tạo ra. Việc này không chỉ giúp cảnh giác với các hình ảnh giả mạo mà còn có thể hạn chế tác động tiêu cực của chúng đối với các cá nhân, đặc biệt là đối với các nhóm dễ bị tổn thương như thanh thiếu niên.
Mặc dù AI có thể đóng vai trò tích cực trong việc hỗ trợ các ngành công nghiệp, nhưng nếu không có sự kiểm soát chặt chẽ, công nghệ này cũng có thể trở thành công cụ gây hại. Chính vì vậy, các cơ quan chức năng, công ty công nghệ, và cộng đồng cần hợp tác để xây dựng các quy định và công cụ hỗ trợ nhằm bảo vệ người dùng khỏi những nguy cơ mà AI có thể gây ra.