Bộ TT&TT khuyến nghị cảnh giác với các cuộc gọi lừa đảo Deepfake

23:56 07/05/2023

Với hình thức lừa đảo này, các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè.

Ảnh minh họa
Ảnh minh họa.

Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người dùng "sập bẫy". Đó là đối tượng lợi dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để yêu cầu "nạn nhân" chuyển tiền.

Các chuyên gia của Cục An toàn thông tin, Bộ Thông tin và Truyền thông (TT&TT) đã đưa ra một số khuyến cáo giúp người dùng dễ "nhận diện" trong bối cảnh thủ đoạn lừa đảo này được dự báo sẽ "nở rộ" trong thời gian tới. Deepfake AI ban đầu vốn được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế.

Thế nhưng hiện nay, ngoài mục đích giải trí như trên, các đối tượng tội phạm đã lợi dụng công nghệ này để tạo ra video giả mạo người khác, giúp chúng thực hiện các vụ lừa đảo hoặc lan truyền tin giả, tin thất thiệt trên mạng.

Theo các chuyên gia về an toàn thông tin, kẻ gian thường chiếm đoạt tài khoản Zalo, Facebook hoặc tạo tài khoản giống hệt người thân của nạn nhân, tiếp đó thu thập hình ảnh, giọng nói và dùng công nghệ Deepfake tạo ra video giả mạo. Sau đó, chúng sẽ dùng tài khoản giả hoặc các tài khoản mạng xã hội chiếm được để nhắn tin mượn tiền hoặc nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm cần tiền gấp...

Chiêu thức này tuy không quá mới nhưng đã trở nên tinh vi hơn khi kẻ gian đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin cho tài khoản giả, tăng độ tin cậy để thực hiện trót lọt hành vi lừa đảo. Các video này có thể khiến người xem tin rằng họ đang nhìn thấy và nghe thấy người thật đang nói chuyện. Và trên thực tế đã có không ít người đã trở thành nạn nhân của thủ đoạn lừa đảo này.

Ông Trần Quang Hưng, Phó cục trưởng Cục An toàn thông tin
Ông Trần Quang Hưng, Phó cục trưởng Cục An toàn thông tin.

Phó Cục trưởng Cục An toàn thông tin (Bộ Thông tin và Truyền thông) Trần Quang Hưng cho biết, khi nhận được thông tin về những vụ việc lừa đảo bằng công nghệ Deepfake, đơn vị đã nhanh chóng cảnh báo rộng rãi trên các phương tiện thông tin đại chúng về hình thức lừa đảo mới này.

Không chỉ Việt Nam mà nhiều nước trên thế giới, các công ty công nghệ lớn đang tìm giải pháp kỹ thuật để xử lý các vụ lừa đảo Deepfake. Việc ngăn ngừa chiêu trò lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Tuy nhiên, do bản chất của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính nên để lấy được tiền, kẻ lừa đảo đều cần đến các tài khoản ngân hàng. Những đối tượng này sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ. Do đó, việc cần làm là ngăn chặn các tài khoản ngân hàng không chính chủ, đồng bộ thông tin tài khoản ngân hàng với cơ sở dữ liệu quốc gia về dân cư để kiểm soát, truy vết các vụ lừa đảo.

“Công nghệ sẽ liên tục thay đổi, chiêu trò lừa đảo sẽ luôn biến hóa khôn lường và là công cụ để kẻ lừa đảo sử dụng. Việc phòng, chống những vụ lừa đảo trên không gian mạng không đơn giản là vấn đề kỹ thuật mà cần có sự phối hợp đồng bộ về công nghệ, pháp lý và cơ chế. Bên cạnh đó, người dùng cần chủ động nâng cao cảnh giác, bảo vệ thông tin cá nhân, tránh bị sập bẫy lừa đảo”, ông Trần Quang Hưng khuyến cáo.

Để nhận diện cuộc gọi lừa đảo deepfake, theo đại diện Cục An toàn thông tin, bằng mắt thường vẫn có thể có một số dấu hiệu nhận biết như thời gian gọi thường rất ngắn, chỉ vài giây. Đặc biệt, khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói hoặc tư thế của họ trông lúng túng, không tự nhiên, hướng đầu và cơ thể của họ trong video không nhất quán với nhau…

Ngoài ra, ông Hưng cho hay, cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến video trông rất giả tạo và không tự nhiên. Bên cạnh đó, âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

"Đáng chú ý, cuộc gọi lừa đảo deepfake thường xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Người dân nên cảnh giác và tuyệt đối bình tĩnh", ông Hưng cảnh báo.

"Trong lúc chúng ta chờ giải pháp kỹ thuật để ngăn chặn triệt để được các hình thức này thì rất cần các cơ quan truyền thông tuyên truyền rộng rãi tới người dân các dấu hiệu nhận biết, cảnh giác, nắm bắt kịp thời các thông tin và thủ đoạn để đề phòng các cuộc lừa đảo trực tuyến", ông Hưng nói.

 Minh Tú (T/h)