Kẻ xấu có thể dùng AI ghép ảnh, video nhạy cảm để bôi nhọ, tống tiền người khác – Ảnh: AI vẽ
Trước đây, khi nói về kỹ thuật cắt ghép khuôn mặt người này vào thân hình người khác, người ta hay dùng photoshop hay các phần mềm chỉnh sửa ảnh chuyên dụng – vốn tốn nhiều công sức và dễ nhận ra bằng mắt thường.
Nay với công cụ AI, người ta có thể làm chuyện đó rất dễ dàng sau “vài nốt nhạc” nhưng lại không dễ phát hiện bằng mắt thường.
Ghép mặt video sex để tống tiền
Do kết nối công việc, ông H. (giám đốc một doanh nghiệp tại TP.HCM) thường xuyên tương tác trên mạng xã hội.
Trong một lần, ông được một cô gái trẻ kết bạn để hỏi thăm công việc. Sau một thời gian hỏi thăm, trò chuyện, tâm sự từ công việc đến đời sống cá nhân, cả hai tỏ ra khá thân thiết với nhau.
Giữa hai người còn có nhiều cuộc nhắn tin với những lời lẽ rất tình cảm, kèm cả những hình ảnh gửi qua lại, những cuộc gọi video để thấy mặt nhau.
Bỗng một ngày ông H. nhận được cuộc gọi từ một người xưng là chồng của cô gái. Sau một màn “phủ đầu” ông H., “người chồng” yêu cầu ông phải chuyển tiền đền bù nếu không muốn bị gửi hình chụp các đoạn chat và video sex giữa hai người cho người thân và các đối tác.
Rồi ông H. được “người chồng” nhá một video sex của ông và cô gái kia, kèm video cuộc gọi giữa hai người, những đoạn tin nhắn tình cảm được chụp lại…
“Tôi chưa bao giờ gặp cô gái kia nên chắc chắn video sex là cắt ghép” – ông H. khẳng định. Tuy nhiên, hình ảnh khuôn mặt cô gái trong đoạn video sex và cô gái trong cuộc gọi video của ông lại là một, kèm theo hình chụp tin nhắn tình cảm, khiến ông H. đành phải nhiều lần chuyển tiền cho “người chồng” để giữ gìn thanh danh của mình.
Qua tìm hiểu của Tuổi Trẻ, ông H. đã bị lừa đảo có tổ chức theo một kịch bản hoàn hảo. Trong chiêu lừa này, ông H. đã hai lần bị deepfake qua mặt. Lần thứ nhất là cuộc gọi video và lần thứ hai là video sex.
Đáng chú ý, trong đoạn video sex, ông H. đã bị ghép mặt rất khéo đến mức người xem khó tin đó là video ghép mặt. Chuyên gia về AI khẳng định với Tuổi Trẻ rằng kẻ xấu đã dùng công cụ AI mới có khả năng ghép mặt vào video hoàn hảo… như thật.
Nhan nhản công cụ AI ghép mặt
Hiện có rất nhiều công cụ ứng dụng AI có các tính năng như tạo hình người bất kỳ với khuôn mặt mong muốn, ghép mặt mong muốn vào thân hình người khác.
Trong đó, có những công cụ có tính năng phục vụ mục đích xấu như biến ảnh bình thường thành ảnh khỏa thân bằng cách “lột sạch đồ” của người trong ảnh, hay thay khuôn mặt một người trong các đoạn video bằng khuôn mặt mong muốn…
Phần lớn công cụ AI này đều có cho dùng thử, khi trả phí sẽ có đầy đủ tính năng với thời gian biến hình rất nhanh.
Chẳng hạn với tính năng ghép mặt sang thân hình người khác, người dùng chỉ việc tải hai bức ảnh tương ứng lên và chờ vài giây sau là có kết quả.
Hay với tính năng tạo ảnh khỏa thân từ ảnh thông thường, công cụ AI có thể làm rất nhanh, chỉ vài chục giây, khiến người xem phải giật mình.
Ngay cả tính năng thay khuôn mặt vào các video sex, công cụ AI cũng làm rất nhanh, mất chưa đến một phút với những video có độ dài vài giây.
Trao đổi với Tuổi Trẻ, ông Nguyễn Kim Thọ, trưởng nhóm nghiên cứu phát triển của Công ty bảo mật an ninh mạng VNetwork, phân tích thuật ngữ deepfake dùng để chỉ các video, hình ảnh giả mạo được tạo ra nhờ AI nhằm khiến người xem tưởng thật.
Công nghệ deepfake sử dụng các mô hình học sâu (deep learning) như mạng nơron để phân tích dữ liệu khuôn mặt, giọng nói của một người và tạo ra nội dung giả giống hệt người đó.
“Nhờ các thuật toán mạnh mẽ, kẻ xấu có thể ghép mặt nạn nhân vào video nhạy cảm (ví dụ video “giường chiếu”, khiêu dâm) hoặc chỉnh sửa hình ảnh để tạo ảnh khỏa thân giả.
Các phần mềm và ứng dụng deepfake hiện nay rất phổ biến trên Internet, thậm chí có cả ứng dụng di động, mã nguồn mở hoặc dịch vụ trực tuyến miễn phí – khiến ai cũng có thể tiếp cận công cụ tạo video, ảnh giả mạo dễ dàng, vì vậy mọi người cần cảnh giác”, ông Thọ cho hay.
Tránh xa “chat sex”
Nhiều vụ lừa đảo bắt đầu từ việc kết bạn qua mạng rồi dụ nạn nhân “chat sex” hoặc gửi ảnh nhạy cảm. Do đó người dùng tuyệt đối không gửi hình ảnh, video riêng tư cho người bạn chỉ quen online, dù họ có hứa hẹn hay đe dọa.
Hãy luôn nhớ bất cứ nội dung nào chia sẻ (dù là qua tin nhắn riêng) đều có thể bị ghi lại (chụp màn hình, quay video) và sau đó chỉnh sửa, sử dụng để chống lại bạn.
Nếu gọi video call, cảnh giác với người lạ đề nghị nội dung nhạy cảm – đó có thể là màn hình giả hoặc họ đang ghi hình.
Các chuyên gia an ninh mạng khuyến cáo người dùng tuyệt đối không tin tưởng ngay chỉ qua tiếp xúc trực tuyến, đồng thời nên xác minh danh tính và ý đồ của đối phương trước khi chia sẻ gì nhạy cảm.
Bên cạnh đó, nếu nhận được tin nhắn hoặc cuộc gọi dọa phát tán ảnh “nóng” để tống tiền, người dùng không cần lo sợ và vội chuyển tiền.
Theo các chuyên gia, việc trả tiền không đảm bảo kẻ xấu sẽ xóa video; chúng có thể tiếp tục đòi thêm hoặc vẫn tung nội dung đó lên mạng.
Thay vì làm theo yêu cầu của tội phạm, người dùng nên thu thập chứng cứ (tin nhắn, số điện thoại, tài khoản liên hệ, nội dung đe dọa…) và báo ngay cho cơ quan công an nơi gần nhất hoặc phản ánh vụ việc qua ứng dụng VNeID của Bộ Công an để được hỗ trợ kịp thời.
Làm sao để nhận diện?
Theo ông Nguyễn Kim Thọ, việc phân biệt hình ảnh, video thật và deepfake đang ngày càng khó khăn, nhưng vẫn có một số dấu hiệu nhận biết và công cụ hỗ trợ.
Người dùng có thể quan sát thủ công, bởi nội dung deepfake đôi khi có điểm bất thường về hình ảnh và âm thanh.
Ví dụ ảnh ghép có thể lộ chỗ nhiễu, lệch màu giữa vùng mặt ghép và cơ thể. Video giả có thể bị lỗi khớp giữa tiếng và hình (chuyển động môi không khớp lời nói) hoặc biểu cảm khuôn mặt hơi đơ, thiếu tự nhiên.
Trước đây, một số video deepfake làm nhân vật không chớp mắt, hoặc ánh sáng, bóng trên khuôn mặt không khớp bối cảnh – đó là dấu hiệu cho thấy video đã qua chỉnh sửa.
Mặc dù công nghệ đang cải thiện (ví dụ các bản deepfake mới đã thêm chuyển động chớp mắt như người thật), người xem tinh ý vẫn có thể phát hiện một số chi tiết phi logic trong video, ảnh.
Hiện nay các nhà nghiên cứu phát triển nhiều thuật toán để tự động phát hiện dấu vết deepfake.
Nội dung do AI tạo ra thường để lại “vân tay kỹ thuật số” đặc trưng trong từng điểm ảnh mà máy có thể nhận ra.
Chẳng hạn Hãng Intel đã giới thiệu trình phát hiện deepfake thời gian thực đầu tiên, có khả năng phân tích video và xác định xem nhân vật trong đó là người thật hay do AI tạo ra.
Ngoài ra, một số trang web cho phép người dùng tải video, ảnh lên để kiểm tra mức độ thật giả (ví dụ công cụ Deepware, Sensity AI…). Những hệ thống này liên tục được cập nhật để theo kịp chiêu thức deepfake mới.
Đặc biệt, người dùng có thể kiểm tra nguồn đăng tải và bối cảnh khi gặp một video, hình ảnh nhạy cảm bởi nhiều video deepfake được phát tán qua tài khoản ảo hoặc bot trên mạng xã hội.
“Nếu nội dung nhạy cảm về một người nhưng lại xuất phát từ nguồn không chính thống hoặc tài khoản nặc danh, cần hoài nghi về tính xác thực. Có thể thử liên hệ trực tiếp người bị xuất hiện trong nội dung để xác minh họ có thực sự làm việc đó không.
Ngoài ra, các dự án như đang thúc đẩy việc nhúng thông tin xác thực (chữ ký số) vào ảnh, video ngay từ khi tạo ra, giúp phân biệt nội dung gốc và nội dung bị chỉnh sửa. Trong tương lai, người dùng có thể sử dụng những dấu hiệu xác thực này để nhận biết nội dung đáng tin cậy”, ông Thọ cho biết.
5 lưu ý để tự bảo vệ
1. Hạn chế chia sẻ ảnh và video nhạy cảm, riêng tư (đặc biệt là ảnh khỏa thân, ảnh gia đình, trẻ em).
2. Đặt chế độ riêng tư cho các tài khoản mạng xã hội (chỉ chia sẻ với người tin cậy).
3. Không nên cung cấp quá nhiều thông tin cá nhân (họ tên, số điện thoại, địa chỉ…) trên mạng xã hội công khai.
4. Hãy đặt mật khẩu mạnh, bật xác thực hai bước cho các tài khoản để tránh bị hack.
5. Thường xuyên tự tìm kiếm tên, hình ảnh của mình trên Google (hoặc dùng công cụ tìm kiếm ảnh ngược như Google Image, TinEye) để xem có ảnh nào của mình bị đăng trái phép hay không, từ đó kịp thời yêu cầu gỡ bỏ.
Đọc tiếp
Về trang Chủ đề