Làm thế nào để chống lại Deepfake trong thời đại công nghệ AI

Hiện nay, kẻ tấn công đang tận dụng các mô hình ngôn ngữ lớn (Large Language Models – LLMs) để mạo danh con người và tự động hóa các chiến thuật lừa đảo xã hội (social engineering) trên quy mô lớn. Bài viết này sẽ tập trung vào hiện trạng các cuộc tấn công này và cách để ngăn chặn – chứ không đơn thuần chỉ phát hiện nữa.

Người call video với bạn có thể không phải người thật đâu!

Các báo cáo tình báo mối đe dọa gần đây cho thấy mức độ tinh vi và phổ biến ngày càng tăng của các cuộc tấn công sử dụng AI:

  • Bùng nổ lừa đảo bằng giọng nói (Voice Phishing Surge): Theo CrowdStrike’s 2025 Global Threat Report, các cuộc tấn công lừa đảo bằng giọng nói (vishing) đã tăng 442% giữa nửa đầu và nửa cuối năm 2024, do các kỹ thuật giả mạo và lừa đảo sử dụng AI tạo ra.

  • Sự phổ biến của kỹ thuật Social Engineering: Verizon’s 2025 Data Breach Investigations Report chỉ ra rằng social engineering luôn là một phương pháp phổ biến nhất trong các vụ vi phạm, trong đó phishing và pretexting chiếm tỷ lệ đáng kể.

  • Chiến dịch deepfake của Triều Tiên: Các hội nhóm hacker từ Triều Tiên đã bị ghi nhận sử dụng công nghệ deepfake để tạo danh tính giả nhằm tham gia phỏng vấn việc làm từ xa, với mục tiêu giành được vị trí và thâm nhập vào tổ chức.

Trong kỷ nguyên mới này, niềm tin không thể chỉ dựa vào cảm tính hay phỏng đoán – mà cần được xác minh rõ ràng, chính xác và ngay tại thời điểm diễn ra.

Vì sao vấn đề này đang ngày càng nghiêm trọng?

Có 3 lí do chính cho việc mạo danh bằng AI đang dần trở thành phương thức tấn công phổ biến:

  1. AI làm giảm chi phí cho các cuộc lừa đảo: Với các công cụ mã nguồn mở tạo giọng nói và video, kẻ tấn công có thể mạo danh bất kỳ ai chỉ với vài dữ liệu mẫu.

  2. Làm việc từ xa qua mạng để lộ ra những khoảng trống về niềm tin: Các công cụ như Zoom, Teams hay Slack đều không có cơ chế xác thực danh tính giữa chủ tài khoản và người thực tế sử dụng tài khoản.

  3. Các biện pháp phòng thủ thường dựa trên xác suất thay vì bằng chứng: Công cụ phát hiện deepfake dùng dấu hiệu trên khuôn mặt và phân tích để đoán xem ai đó có thật không. Điều đó là không đủ trong môi trường rủi ro cao.

Mặc dù các công cụ bảo mật đầu cuối và chương trình đào tạo người dùng có thể hỗ trợ trong việc giảm thiểu rủi ro, chúng không được thiết kế để đưa ra câu trả lời tức thời cho một vấn đề cốt lõi: liệu người đang tương tác có thực sự đáng tin cậy hay không.

Công nghệ phát hiện AI là không đủ

Các biện pháp phòng vệ truyền thống tập trung vào phát hiện – chẳng hạn như đào tạo người dùng nhận biết hành vi đáng ngờ hoặc dùng AI để phân tích xem ai đó có phải giả không.
Nhưng deepfake đang trở nên quá giỏi, quá nhanh. Bạn không thể chống lại sự giả mạo do AI tạo ra bằng các công cụ dựa trên xác suất.

Ngăn chặn thực sự đòi hỏi một nền tảng khác, dựa trên những thứ có thể chứng minh được, chứ không phải giả định. Điều này bao gồm:

  • Xác minh danh tính (Identity Verification): Chỉ người dùng đã được xác minh và ủy quyền mới có thể tham gia các cuộc họp hoặc trò chuyện nhạy cảm, dựa trên chứng chỉ mật mã học, không phải mật khẩu hay mã xác thực.

  • Kiểm tra tính toàn vẹn thiết bị (Device Integrity Checks): Nếu thiết bị của người dùng bị nhiễm mã độc, bị jailbreak hoặc không tuân thủ chính sách, nó vẫn là điểm xâm nhập cho kẻ tấn công – ngay cả khi danh tính đã được xác minh. Hãy chặn các thiết bị này khỏi các cuộc họp cho đến khi được khắc phục.

  • Chỉ báo niềm tin hiển thị (Visible Trust Indicators): Những người tham gia khác cần nhìn thấy bằng chứng rõ ràng rằng mỗi người trong cuộc họp đúng là ai họ nói và đang dùng thiết bị an toàn..

Ngăn chặn nghĩa là tạo ra điều kiện để việc mạo danh không chỉ khó mà là bất khả thi.
Đó là cách bạn chặn đứng các cuộc tấn công deepfake AI ngay trước khi chúng tham gia vào các cuộc trò chuyện rủi ro cao như họp hội đồng, giao dịch tài chính hoặc hợp tác với nhà cung cấp.

Khuyến nghị

Phía FPT Threat Intelligence khuyến nghị tổ chức và cá nhân một số cách để phòng chống chiến dịch tấn công nguy hiểm này:

  • Xác thực danh tính mạnh: Ưu tiên sử dụng cơ chế xác minh danh tính dựa trên các bằng chứng có thể kiểm chứng được (ví dụ: chứng chỉ mật mã học), thay vì chỉ dựa vào mật khẩu hoặc mã truy cập.

  • Đánh giá tính toàn vẹn thiết bị đầu cuối: Thiết lập các cơ chế kiểm tra độ an toàn và tuân thủ của thiết bị trước khi cho phép tham gia vào các phiên làm việc nhạy cảm, nhằm giảm thiểu nguy cơ từ thiết bị không đáng tin cậy.

  • Hiển thị chỉ báo xác minh rõ ràng: Cung cấp các tín hiệu nhận diện minh bạch, giúp người dùng xác định danh tính và mức độ an toàn của các đối tượng tham gia trong môi trường cộng tác số.

  • Thiết kế hệ thống theo hướng phòng ngừa chủ động: Hạn chế tối đa khả năng mạo danh ngay từ đầu bằng cách thiết lập các điều kiện mà trong đó hành vi giả mạo trở nên bất khả thi, thay vì chỉ phát hiện sau khi xảy ra vi phạm.

Tham khảo

0
Subscribe to my newsletter

Read articles from Tran Hoang Phong directly inside your inbox. Subscribe to the newsletter, and don't miss out.

Written by

Tran Hoang Phong
Tran Hoang Phong

Just a SOC Analyst ^^