Diễn đàn Kinh tế thế giới (World Economic Forum) dự báo đến năm 2026, có thể tới 90% nội dung trực tuyến sẽ được tạo ra bằng AI. Trong khi đó, Báo cáo Identity Fraud của Kaspersky năm 2025 cho biết trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra.
Thoạt nghe, nhiều người có thể cho rằng mục tiêu chính của các cuộc tấn công deepfake và phishing AI là những người nổi tiếng hay các nhân vật có tiếng tăm. Tuy nhiên, mục tiêu và động cơ chính vẫn không khác gì so với các vụ lừa đảo từ trước tới nay.
Đó là người dùng phổ thông với thông tin cá nhân, ngân hàng, và thanh toán. Đối tượng thứ hai là các doanh nghiệp – nơi lưu giữ dữ liệu và tài sản có giá trị.
Khi phishing được nâng cấp bởi AI
Phishing là một hình thức lừa đảo trên Internet nhằm dụ dỗ nạn nhân tiết lộ thông tin đăng nhập hoặc chi tiết thẻ ngân hàng. Hình thức này có thể nhắm tới cả cá nhân lẫn doanh nghiệp và được thực hiện trên diện rộng, hoặc cá nhân hóa theo từng đối tượng.
Tin nhắn phishing thường giả danh thông báo từ ngân hàng, nhà cung cấp dịch vụ, hệ thống thanh toán điện tử, hoặc các tổ chức khác.
Trong trường hợp lừa đảo theo hình thức phishing nhắm mục tiêu cụ thể, kẻ lừa đảo thậm chí còn giả mạo người quen biết của nạn nhân.
Trước đây các nội dung phishing thường sơ sài, đầy lỗi sai với nội dung thiếu thuyết phục.
Giờ đây các mô hình ngôn ngữ lớn (LLM) cho phép kẻ tấn công tạo ra các tin nhắn và trang web cá nhân hóa, đưa ra thông điệp thuyết phục với ngữ pháp chính xác, cấu trúc logic và các đoạn văn mượt mà.
Ngày nay khi phishing trở thành mối đe dọa toàn cầu, những kẻ tấn công còn có thể nhắm đến các cá nhân sử dụng ngôn ngữ mà chúng không thành thạo, nhờ vào khả năng sáng tạo nội dung của AI.
Thêm vào đó chúng có thể sao chép phong cách viết của cá nhân cụ thể – chẳng hạn như đối tác kinh doanh hay đồng nghiệp – bằng cách phân tích bài đăng mạng xã hội hoặc các nội dung khác liên quan đến cá nhân đó.
Deepfake âm thanh
Deepfake âm thanh là công nghệ sử dụng AI để tạo ra những đoạn âm thanh giả mạo giọng nói của người khác một cách chân thực. Chỉ với vài giây ghi âm giọng nói, AI có thể tạo ra các bản audio y hệt giọng nói của ai đó thân quen, chẳng hạn như bạn bè hoặc người thân.
Hãy tưởng tượng kẻ tấn công chiếm được tài khoản trên một ứng dụng nhắn tin của bạn, sau đó sử dụng các đoạn tin nhắn thoại trong cuộc trò chuyện để tạo ra bản ghi âm giả mạo giọng nói của bạn. Chúng có thể gửi các tin nhắn này đến bạn bè hoặc người thân của bạn.
Điều đáng sợ là với công nghệ ngày càng phát triển, những cuộc tấn công này hoàn toàn có thể xảy ra. Kẻ tấn công có thể lợi dụng giọng nói của bạn để yêu cầu chuyển tiền khẩn cấp hoặc cung cấp thông tin nhạy cảm, dựa vào sự tin tưởng giữa các cá nhân để thực hiện hành vi lừa đảo ở cả cấp độ cá nhân lẫn doanh nghiệp.
Deepfake video
Kẻ tấn công còn có thể sử dụng công cụ AI để tạo ra các đoạn video giả mạo deepfake chỉ từ bức ảnh duy nhất.
Chúng có thể sử dụng dễ dàng những phần mềm phức tạp để hoán đổi khuôn mặt trong video, đồng bộ chuyển động môi, tinh chỉnh các lỗi AI tạo ra và thêm giọng nói chân thực cho nhân vật.
Với những công cụ này trong tay, kẻ tấn công có thể nghĩ ra những âm mưu tưởng chừng như không thể – chẳng hạn như tạo ra các quảng cáo giả mạo, thực hiện các cuộc gọi lừa đảo, hoặc thậm chí tổ chức các cuộc gọi video trực tiếp, giả danh một đồng nghiệp đáng tin cậy hoặc một người thân thiết. Những hành vi này gây ra tổn thất tài chính nghiêm trọng cho các nạn nhân.