Trước những cuộc gọi video "giả như thật" đó, cách phân biệt nên như thế nào, công nghệ nào được sử dụng, nên tập trung vào đâu để tránh bị lừa?
Ứng dụng deepfake trong cuộc gọi video
Deepfake là một công nghệ AI có khả năng làm giả video và giọng nói của một người khác. Khác với cách gọi video call mạo danh trước đây - kẻ lừa đảo dùng một bức hình chân dung khuôn mặt chủ tài khoản Facebook bị cướp đưa lên camera điện thoại một vài giây - công nghệ deepfake cho phép kẻ lừa đảo tạo hẳn một đoạn video với đầy đủ hình ảnh chuyển động (cử động nhẹ khuôn mặt và miệng) kèm giọng nói rất giống "khổ chủ", tạo cảm giác "chính chủ" đang gọi điện rất tự nhiên.
Trao đổi với Tuổi Trẻ, ông Vũ Thanh Thắng, giám đốc cấp cao về AI (CAIO), Công ty an ninh mạng thông minh SCS, phân tích: tại Việt Nam deepfake đang được dùng phổ biến với việc làm giả video của các nạn nhân để lừa người thân của họ.
"Cách này đang phát huy hiệu quả, vì đây là hình thức lừa đảo mới, đặc biệt khi ý thức về vấn đề an ninh mạng chưa cao, chưa có thói quen kiểm tra kỹ thông tin trước khi chuyển tiền.
Trong tương lai deepfake có thể gây ra hiểm họa lớn hơn là giả danh những người nổi tiếng, chính trị gia... để thực hiện những mục đích khác của tội phạm mạng", ông Thắng cảnh báo.
Chuyên gia bảo mật Ngô Minh Hiếu, Trung tâm Giám sát an toàn không gian mạng quốc gia, cho biết đã tiếp nhận nhiều trường hợp người dùng bị lừa bởi công nghệ deepfake.
Tài khoản Facebook của một người dùng bị hack, sau đó bạn bè người dùng này sẽ nhận được tin nhắn mượn tiền, kèm theo đó là cuộc gọi video bằng chính hình ảnh và giọng nói của người dùng để xác tín với những người nhận cuộc gọi.
Ông Hiếu cũng cho rằng không sớm thì muộn, tội phạm mạng tại Việt Nam sẽ biết nhiều hơn cách làm, đánh cắp video, hình ảnh, rồi cắt ghép sau đó dùng những công cụ trên mạng dễ dàng tạo deepfake.
"Những người tầm trung niên trở lên là đối tượng dễ bị lừa nhất, nếu không có được sự chia sẻ hướng dẫn an toàn trên không gian mạng", ông Hiếu cảnh báo.
Cách nhận biết deepfake trong cuộc gọi video
Ông Vũ Thanh Thắng nhấn mạnh thường những cuộc video giả khuôn mặt và giọng nói sẽ rất ngắn với mục đích cho bạn bè hay người thân của nạn nhân, nhìn thoáng qua sau đó tắt đi với lý do sóng điện thoại kém... rồi nói cần mượn tiền gấp.
Hiện tại, công nghệ deepfake vẫn còn nhiều vấn đề về chất lượng của video, như: chất lượng không tốt, không tự nhiên, âm thanh cũng không thực sự giống với người bị giả dạng...
Do đó, các chuyên gia an ninh mạng khuyến cáo người dùng bình thường khi gặp những video call có chất lượng bất thường cần bình tĩnh xác thực thông tin để tránh sập bẫy kẻ gian với các câu hỏi ngược lại, như: những thông tin riêng, mối liên hệ gia đình... để xem có đúng là người thân hay không.
Nếu có thực hiện việc chuyển tiền cũng cần phải kiểm tra thông tin tài khoản. Hoặc đơn giản có thể thực hiện cuộc gọi qua số điện thoại bình thường để xác minh.
Chuyên gia Ngô Minh Hiếu cũng khuyến cáo: "Hãy để ý những dấu hiệu kỳ lạ. Có thể khuôn mặt của họ thiếu tính cảm xúc và khá 'trơ' khi nói, màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí... Âm thanh cũng thường không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip...".
Cẩn thận những nguy cơ lớn hơn
Theo Hãng bảo mật Kaspersky, các video deepfake không chỉ được dùng để lừa chuyển tiền mà thực tế đã được sử dụng cho các mục đích chính trị, cũng như để trả thù cá nhân, thậm chí không loại trừ cả bắt cóc tống tiền và lừa đảo lớn.
Kaspersky đưa ra ví dụ thực tế về giám đốc điều hành một công ty năng lượng của Anh bị lừa tới 243.000 USD (hơn 5,7 tỉ đồng) khi kẻ gian dùng giọng nói deepfake của người đứng đầu công ty mẹ yêu cầu ông này chuyển tiền khẩn cấp.
Giọng nói giả giống thật đến mức vị giám đốc này đã không nghĩ tới việc kiểm tra lại; tiền được chuyển đến tài khoản ngân hàng của bên thứ ba thay vì tài khoản của trụ sở chính. Vị giám đốc điều hành chỉ bắt đầu nghi ngờ khi "sếp" của ông ta yêu cầu chuyển thêm một khoản tiền khác, nhưng đã quá muộn để lấy lại số tiền đã chuyển.