Những vụ deepfake qua mặt sinh trắc học ở Việt Nam và thế giới

Kinhtetrithuc.vn – Các hệ thống xác thực sinh trắc học như nhận diện khuôn mặt và giọng nói từng được xem như “lớp tường lửa” kiên cố để chống lừa đảo. Thế nhưng, deepfake không ngừng phát triển và đang thử thách lớp bảo vệ này.

Deepfake là công nghệ dùng AI (trí tuệ nhân tạo) để tạo ra nội dung hình ảnh, video hoặc âm thanh giả cực kỳ chân thực. Ban đầu deepfake chỉ là ghép mặt trong video, nhưng ngày nay đã phát triển mạnh mẽ với mạng đối nghịch tạo sinh (GAN), mô hình khuếch tán và các công cụ tạo giả giọng nói giống như thật.

Kết quả là mắt thường rất khó để nhận ra nội dung giả mạo do deepfake tạo. Thậm chí, nhiều nghiên cứu còn cho thấy con người thường không nhận ra đâu là video thật, đâu là video deepfake.

Việc deepfake trở nên dễ sử dụng và phổ biến khiến các mối đe dọa an ninh mạng ngày càng tăng cao.

GAN (Generative Adversarial Network) là một loại mô hình AI tạo sinh do nhà khoa học Ian Goodfellow giới thiệu năm 2014. Đây là một trong những công nghệ nền tảng đứng sau deepfake hiện nay.

Cấu trúc của GAN gồm hai mạng nơ-ron đối kháng nhau:

– Generator (mạng sinh) có nhiệm vụ tạo ra dữ liệu giả, ví dụ khuôn mặt, giọng nói hay hình ảnh.

– Discriminator (mạng phân biệt) có nhiệm vụ phát hiện dữ liệu giả, tức là cố gắng phân biệt xem đầu vào là thật hay do AI tạo.

Hai mạng này được huấn luyện cùng lúc, theo kiểu “đấu tay đôi”: Generator càng tạo giả giỏi, discriminator càng phải học để phát hiện tốt hơn. Quá trình này lặp lại hàng triệu lần cho đến khi generator tạo ra sản phẩm giả mà discriminator và cả con người khó nhận ra.

Nhờ cơ chế này, GAN đã mở đường cho kỷ nguyên deepfake hiện đại, từ việc hoán đổi khuôn mặt, tái tạo giọng nói đến tạo ảnh nhân vật không tồn tại. Song cũng vì sức mạnh của GAN mà deepfake đang bị lợi dụng trong lừa đảo, giả mạo danh tính và tuyên truyền sai lệch.

Những vụ deepfake qua mặt nhân viên tài chính và hệ thống xác thực sinh trắc học ở Việt Nam và thế giới

Đầu năm 2024, tập đoàn tư vấn kỹ thuật nổi tiếng Arup (Anh) trở thành nạn nhân của vụ lừa đảo tinh vi, trong đó các tội phạm sử dụng deepfake để giả mạo lãnh đạo công ty trong một video call, từ đó thuyết phục nhân viên chuyển 25,6 triệu USD vào tài khoản của chúng.

Thông tin điều tra cho biết một nhân viên tài chính tại chi nhánh Hồng Kông (Trung Quốc) của Arup đã nhận được email “khẩn” từ tài khoản giả mạo giám đốc tài chính công ty, yêu cầu thực hiện một giao dịch bí mật. Ban đầu nhân viên này hoài nghi về email, nhưng sau đó được mời vào cuộc họp video trực tuyến, nơi giám đốc tài chính cùng các đồng nghiệp giả xuất hiện và nói chuyện giống thật. Hình ảnh và giọng nói của những kẻ giả danh này đều được AI tái tạo từ dữ liệu trước đó.

Sau khi bị thuyết phục, nhân viên đã thực hiện tổng cộng 15 giao dịch chuyển tiền (tổng cộng 25,6 triệu USD) vào 5 tài khoản ngân hàng tại Hồng Kông mà kẻ gian chỉ định. Nhân viên chỉ phát hiện bị lừa đảo khi gọi điện xác minh với trụ sở Arup ở Anh.

Arup là tập đoàn tư vấn kỹ thuật, thiết kế và xây dựng hàng đầu thế giới có trụ sở chính tại London (thủ đô Anh), hoạt động trên hơn 140 quốc gia, với hàng chục nghìn kỹ sư, kiến trúc sư, nhà quy hoạch đô thị, chuyên gia môi trường và dữ liệu. Công ty đứng sau nhiều dự án mang tính biểu tượng toàn cầu như Nhà hát Opera Sydney (Úc), sân vận động Bird’s Nest (Bắc Kinh), tòa tháp The Shard (London) và nhiều công trình xanh, thông minh tại châu Á, Mỹ, và châu Âu.

Năm 2024, một ngân hàng lớn tại Indonesia đã trở thành nạn nhân của chiêu trò lừa đảo tinh vi bằng công nghệ deepfake trong quy trình xác thực danh tính khách hàng. Theo báo cáo từ hãng an ninh mạng Group-IB (có trụ sở ở Singapore), tội phạm đã nhờ deepfake để tạo ra hàng loạt khuôn mặt giả và sử dụng trong hồ sơ vay vốn trực tuyến nhằm qua mặt hệ thống kiểm tra sinh trắc học của ngân hàng.

Cụ thể, chúng thu thập thông tin thật của khách hàng, gồm họ tên, số căn cước công dân và dữ liệu cá nhân khác, rồi thay đổi ảnh chân dung trong giấy tờ tùy thân thành khuôn mặt được tạo bằng AI. Những khuôn mặt này được thiết kế khéo léo để vẫn giữ những nét tương đồng với ảnh gốc, song đủ khác biệt để không bị nghi ngờ khi dùng để mở hồ sơ vay vốn mới. Khi hồ sơ được nộp, hệ thống xác thực khuôn mặt của ngân hàng tiến hành so sánh ảnh khách hàng mới với cơ sở dữ liệu người thật. Tuy nhiên, công nghệ deepfake đã đủ tinh vi để đánh lừa cả hệ thống này.

Theo Group-IB, ngân hàng đó đã ghi nhận hơn 1.100 trường hợp nghi vấn deepfake trong quy trình xác minh danh tính bắt buộc trước khi cấp tín dụng. Các vụ tấn công này còn vượt qua cả liveness detection (công nghệ kiểm tra xem khách hàng là người thật đang tương tác trực tiếp với camera hay chỉ là hình ảnh/video giả). Điều đó cho thấy tội phạm đã biết khai thác những lỗ hổng trong quy trình tự động hóa của ngân hàng, đồng thời sử dụng deepfake không chỉ để mạo danh người thật mà còn để tạo ra danh tính hoàn toàn mới.

Năm 2023, phóng viên trang Insider từng thử nghiệm dùng AI tạo giọng nói giả của chính mình để gọi đến ngân hàng ở Mỹ và yêu cầu chuyển tiền. Ngân hàng không phát hiện sự khác thường nào và giao dịch được thực hiện thành công, chứng tỏ các hệ thống xác thực giọng nói rất dễ bị đánh lừa nếu không có kiểm tra bổ sung.

Deepfake đang trực tiếp thách thức hệ thống bảo mật sinh trắc ở mọi cấp độ, gồm cả ngân hàng – Ảnh: Internet

Tại Việt Nam, công an đã phát hiện đường dây sử dụng AI làm giả sinh trắc học nhằm giao dịch rửa tiền hơn 1.000 tỉ đồng cho một trang web đánh bạc trực tuyến.

Ngày 29.5.2025, Công an tỉnh Thái Bình cho biết đã khởi tố Phạm Hồng Chuyền (46 tuổi, trú phường Giang Biên, quận Long Biên, Hà Nội) cùng 13 người về tội Đánh bạc, theo khoản 2 Điều 321 Bộ luật Hình sự. Trong số này, 7 người bị khởi tố thêm tội danh thứ hai là Rửa tiền. Cơ quan điều tra đã phong tỏa hơn 1.000 tài khoản ngân hàng nghi có liên quan.

Theo điều tra, Chuyền được một người Đài Loan thuê điều hành việc rửa tiền cho một trang web đánh bạc trực tuyến có máy chủ đặt ở nước ngoài, chuyên cung cấp các trò như xổ số, cá cược bóng đá, tài xỉu… Trang này hoạt động nhiều năm qua, thường xuyên thay đổi tên miền và đường dẫn truy cập, móc nối với nhiều người Việt để hợp thức hóa dòng tiền đánh bạc. Người chơi dùng điện thoại di động truy cập vào đường dẫn, tạo tài khoản và liên kết với tài khoản ngân hàng cá nhân để nạp – rút tiền.

Mức cược thấp nhất là một điểm (tương đương 1.000 đồng), không giới hạn điểm đặt. Nếu thắng, hệ thống sẽ tự động cộng điểm và quy đổi thành tiền khi người chơi rút. Công an xác định từ tháng 1 đến tháng 4.2025 đã có hơn 1 triệu tài khoản đánh bạc trên trang web này với tổng số tiền nạp vượt 1.000 tỉ đồng.

Chuyền bị cáo buộc đã thuê người Việt Nam đứng tên mở hàng loạt tài khoản ngân hàng, đồng thời thuê các căn hộ tại Hà Nội, Thái Bình để đặt thiết bị phục vụ hoạt động rửa tiền, gồm máy tính, điện thoại di động được cài sẵn phần mềm điều khiển từ xa.

Khi người chơi nạp tiền vào tài khoản, nhóm nghi phạm tại Đài Loan sử dụng ứng dụng Team Viewer điều khiển máy tính, thực hiện thao tác chuyển tiền qua nhiều tài khoản ngân hàng khác nhau nhằm che giấu nguồn gốc dòng tiền. Để vượt qua bước xác thực sinh trắc học của ngân hàng với các giao dịch từ 10 triệu đồng trở lên, nhóm này sử dụng AI tạo video giả khuôn mặt chủ tài khoản, giúp hệ thống xác minh giao dịch mà không cần sự có mặt thực tế của người mở tài khoản.

Theo điều tra, mỗi người được thuê mở tài khoản sẽ quay một video gốc dài khoảng 25-30 giây. Sau đó, nhóm của Chuyền dùng AI tạo video mô phỏng sinh trắc khuôn mặt để thực hiện giao dịch liên tục mà chủ tài khoản không hay biết.

Từ tháng 9.2024 đến tháng 4.2025, đường dây do Chuyền điều hành bị nghi rửa tiền với tổng giá trị ước tính hơn 1.000 tỉ đồng, trung bình hơn 100 tỉ đồng mỗi tháng.

Đây là minh chứng rõ nét rằng deepfake đang được tội phạm sử dụng trong lĩnh vực tài chính tại Việt Nam.

“Cuộc chiến bất đối xứng” giữa deepfake và sinh trắc học

Ngày trước, deepfake đơn thuần là ghép mặt tĩnh hoặc thay ảnh, nhưng giờ đây mô hình AI hiện đại có thể tạo video chân thực đi kèm giọng nói giả gần như hoàn hảo. Đó là lý do deepfake trở thành vũ khí lừa đảo cực kỳ nguy hiểm thời hiện đại.

Kẻ xấu không ngừng nâng cấp chiêu trò khi tạo ra các video deepfake với chuyển động khuôn mặt tự nhiên, hiệu ứng ánh sáng thay đổi chân thực, giọng nói nhân tạo có kèm tiếng nhiễu nền để tăng độ tin cậy, thậm chí còn chèn trực tiếp dữ liệu giả vào ứng dụng xác thực nhằm vượt qua bước quay camera thật (kỹ thuật tấn công kiểu injection).

Mỗi khi xuất hiện một mô hình AI mới, các hệ thống phát hiện deepfake phải học lại từ đầu để nhận diện kiểu giả mạo đó. Trong khoảng thời gian ngắn trước khi hệ thống được cập nhật, kẻ gian thường tận dụng cơ hội này để ra tay.

sinh trắc học
Liên Hiệp Quốc xem đối phó deepfake là một trong những thách thức lớn nhất, cần các công cụ AI tiên tiến – Ảnh: Internet

Số liệu thực tế cũng cho thấy áp lực lên các hệ thống phòng thủ sinh trắc học ngày càng tăng. Theo báo cáo từ Biometric Update (trang tin quốc tế chuyên về công nghệ sinh trắc học), trong năm 2024, số vụ tấn công bằng kỹ thuật tấn công kiểu injection đã tăng gấp 9 lần so với năm trước. Đáng chú ý hơn, số lần cố tình sử dụng webcam ảo để đánh lừa hệ thống đã tăng tới 28 lần. Điều này cho thấy tội phạm mạng không chỉ dùng video deepfake, mà còn tìm cách đưa thẳng hình ảnh giả vào luồng dữ liệu sinh trắc học, có thể đánh bại những hệ thống liveness detector đơn giản.

Hồi tháng 4, Cục Dự trữ Liên bang Mỹ (Fed) cho biết số vụ lừa đảo dùng deepfake đã tăng tới 20 lần trong 3 năm gần đây.

Một khảo sát do trang Insider thực hiện cho thấy hơn 80% lãnh đạo ngân hàng tin rằng tốc độ phát triển của tội phạm mạng sử dụng AI đang nhanh hơn các biện pháp phòng thủ mà ngành tài chính có thể triển khai.

Nói cách khác, deepfake và công nghệ sinh trắc học đang ở trong “cuộc chiến bất đối xứng”, nơi kẻ tấn công luôn đi trước một bước, còn bên phòng thủ phải không ngừng chạy theo để bịt lỗ hổng mới.

Tuy nhiên, nhà phát triển công nghệ sinh trắc học không chịu đầu hàng khi đưa ra nhiều giải pháp tiên tiến hơn. Ví dụ, phương pháp xác thực bằng NFC-based IDV (đọc dữ liệu sinh trắc học từ thẻ căn cước gắn chip) cho phép hệ thống so sánh khuôn mặt chụp được với ảnh gốc có độ phân giải cao lưu trong cơ sở dữ liệu của nhà nước, hoặc mô hình học sâu đa phương thức kết hợp hình ảnh và giọng nói cùng lúc để nhận diện người thật và phát hiện hành vi giả mạo chính xác hơn.

Một số công ty an ninh ứng dụng AI để nhận diện chấm sinh trắc (biometric patch) – những điểm đặc trưng vi mô trên khuôn mặt, da hoặc mắt mà deepfake khó tái tạo.

Ngoài ra, công nghệ phân tích tần số âm thanh giúp phát hiện giọng nói nhân tạo cũng đang được cải tiến nhanh chóng.

Các hệ thống liveness detection và chống giả mạo đã được cải tiến để xác minh người trong camera có thực sự “sống”, như cử động mắt, môi, nghiêng đầu, ánh sáng thay đổi, nhịp tim (qua biến đổi màu da nhỏ) hoặc dùng cảm biến 3D để phân biệt chiều sâu khuôn mặt. Với giọng nói, hệ thống có thể kiểm tra đặc điểm tần số, các chi tiết sinh học mà không thể dễ giả mạo bằng AI.

Giới chuyên gia cảnh báo rằng cuộc chiến này không chỉ là vấn đề công nghệ, mà còn là bài toán về nhận thức và quy trình. Các ngân hàng, tổ chức tài chính và cơ quan quản lý cần đầu tư đồng thời vào ba hướng là nâng cấp công nghệ, đào tạo nhân sự, xây dựng cơ chế phản ứng linh hoạt. Chỉ khi đó thế trận giữa deepfake và sinh trắc học mới có thể trở nên cân bằng hơn.

Theo Sơn Vân / Một thế giới

Xem thêm: