Đài CNN đưa tin về vụ việc lừa đảo deepfake vào hôm 4-2.
Trước đó, vào hôm 2-2, cảnh sát Hong Kong cho biết nhân viên tài chính (không nêu tên) bị lừa tham gia một cuộc gọi video với những “người” mà anh cho là các nhân sự khác trong tập đoàn mà anh này làm việc.
Nhưng thực tế tất cả đều là sản phẩm giả mạo của công nghệ deepfake.
“Trong cuộc gọi video nhiều người, hóa ra tất cả những người anh ấy nhìn thấy đều là giả”, đại diện cảnh sát Hong Kong giải thích.
Thực tế, nạn nhân đã nghi ngờ ngay từ đầu sau khi nhận được một email được cho là từ “giám đốc tài chính tại Anh” của tập đoàn mà anh này làm việc, vì nó đề cập đến việc cần phải thực hiện một giao dịch bí mật.
Tuy nhiên, anh đã gạt bỏ những nghi ngờ sau khi tham gia cuộc gọi video và nhìn thấy những gương mặt của các đồng nghiệp mà anh đã biết. Sau đó, anh đã đồng ý chuyển tổng cộng 200 triệu đô la Hong Kong (tương đương 25,6 triệu USD).
Vụ lừa đảo chỉ bị phát hiện khi nhân viên này liên hệ với trụ sở chính của tập đoàn.
Đây chỉ là một trong nhiều vụ việc lừa đảo sử dụng công nghệ deepfake gần đây. Cảnh sát Hong Kong cho biết họ đã bắt giữ 6 nghi phạm liên quan đến các vụ lừa đảo tương tự.
Trong khoảng thời gian từ tháng 7 đến tháng 9-2023, có 8 thẻ căn cước Hong Kong đã bị đánh cắp và được sử dụng để thực hiện 90 đơn xin vay tiền và 54 lần đăng ký tài khoản ngân hàng.
Cảnh sát ghi nhận ít nhất 20 trường hợp dùng công nghệ deepfake để qua mặt các hệ thống nhận dạng khuôn mặt, bằng cách sử dụng hình ảnh khuôn mặt trên các căn cước.
Các nhà chức trách trên khắp thế giới ngày càng lo ngại về sự phức tạp của công nghệ deepfake và những mục đích bất chính mà nó có thể gây ra.
Vào cuối tháng 1-2024, những hình ảnh khiêu dâm do trí tuệ nhân tạo (AI) tạo ra của ngôi sao nhạc pop người Mỹ Taylor Swift đã lan truyền trên mạng xã hội, nhấn mạnh nguy cơ gây hại do công nghệ AI gây ra.