Deepfake là thuật ngữ chỉ việc sử dụng công nghệ kỹ thuật số, đặc biệt là trí tuệ nhân tạo (AI), để tạo ra các bức ảnh, video hoặc tệp âm thanh đã bị chỉnh sửa.
Tội phạm thường dùng công nghệ deepfake để tạo ra nội dung lừa đảo và khiêu dâm sau đó phát tán trên mạng xã hội mà không có sự đồng ý của những cá nhân liên quan.
Tin tức từ số liệu Cảnh sát quốc gia Hàn Quốc công bố ngày 30-8 cho thấy trong số 527 vụ tội phạm deepfake được báo cáo với cảnh sát từ năm 2021 đến năm 2023, có 315 nạn nhân (chiếm 59,8%) được xác định là thanh thiếu niên.
Tỷ lệ này vượt xa các nhóm tuổi khác, với những người ở độ tuổi 20 là 32,1%, tiếp theo là những người ở độ tuổi 30 là 5,3%, trong khi những người ở độ tuổi 40 là 1,1%.
Số lượng nạn nhân vị thành niên tăng vọt từ 53 trường hợp vào năm 2021 lên 81 trường hợp vào năm 2022 và 181 nạn nhân vào năm 2023, đánh dấu mức tăng gấp 3,4 lần chỉ trong vòng hai năm.
Nhiều thủ phạm cũng chưa đủ tuổi và số lượng cũng đang tăng lên do công nghệ deepfake ngày càng dễ tiếp cận.
Trong số các nghi phạm bị buộc tội tạo video giả, thanh thiếu niên chiếm 65,4% vào năm 2021, 61,2% vào năm 2022 và 75,8% vào năm 2023. Tỷ lệ này tiếp tục ở mức cao là 73,6% trong 7 tháng đầu năm nay.
Theo một nghị sĩ Hàn Quốc, hầu hết nạn nhân deepfake là thanh thiếu niên và số vụ việc trên thực tế còn cao hơn so với con số bị bắt giữ mà cơ quan cảnh sát công bố.
Do đó, nghị sĩ này cho rằng Hàn Quốc cần xây dựng các chính sách hiệu quả, cần có luật và hình phạt nghiêm khắc hơn để hỗ trợ mạnh mẽ công tác điều tra.