Bài liên quan |
Cảnh báo lừa đảo qua thiệp chúc mừng Giáng sinh trên video giả mạo |
Lại xuất hiện tình trạng giả mạo nhân viên điện lực lừa đảo khách hàng |
Công nghệ phát triển đã mang lại nhiều lợi ích cho xã hội, nhưng đồng thời cũng tạo ra những thách thức lớn về an ninh mạng. Gần đây, Bộ Công an đã phát đi cảnh báo về tình trạng tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép nhằm đe dọa, tống tiền bằng các video giả mạo. Theo báo cáo của Kaspersky, số vụ tấn công mạng toàn cầu đã tăng mạnh trong năm qua, trong đó lừa đảo trực tuyến (phishing) vẫn là mối đe dọa hàng đầu. Đáng chú ý, gần một nửa số người được khảo sát cho biết họ từng là nạn nhân của hình thức này.
Điều đáng lo ngại là tội phạm mạng ngày càng tinh vi hơn khi ứng dụng trí tuệ nhân tạo (AI) để nâng cấp các phương thức lừa đảo, khiến chúng trở nên khó phát hiện và nhận biết hơn bao giờ hết.
![]() |
Cảnh báo thủ đoạn lừa đảo bằng hình ảnh, video giả mạo |
Deepfake, một công nghệ AI nổi bật, có khả năng tái tạo hình ảnh, giọng nói của một người với độ chính xác cao. Công nghệ này đang bị kẻ gian lợi dụng để giả mạo danh tính, tạo ra các video và cuộc gọi lừa đảo. Một số vụ việc đã ghi nhận tội phạm sử dụng deepfake để giả danh lãnh đạo doanh nghiệp trong các cuộc họp trực tuyến, thuyết phục nhân viên thực hiện chuyển khoản với số tiền lên đến hàng chục triệu USD.
Dự báo, những hình thức tấn công kiểu này sẽ tiếp tục gia tăng trong tương lai. Không chỉ dừng lại ở việc giả mạo lãnh đạo doanh nghiệp, deepfake còn được ứng dụng trong nhiều hình thức lừa đảo khác như lừa đảo tài chính khi tội phạm sử dụng deepfake để mạo danh các nhân vật có ảnh hưởng, kêu gọi đầu tư hoặc lừa đảo thông qua video và giọng nói giả mạo. Lừa đảo tình cảm (AI Romantic Scams) cũng đang trở nên phổ biến khi kẻ gian tạo ra danh tính giả, tương tác với nạn nhân qua video call, sau đó chiếm đoạt tài sản bằng cách yêu cầu chuyển tiền với lý do khẩn cấp.
Giả mạo giọng nói (Voice Fakes) cũng là một hình thức tinh vi khác khi AI có thể sao chép giọng nói của một người để thực hiện các cuộc gọi lừa đảo, thậm chí tấn công vào các hệ thống ngân hàng sử dụng xác thực bằng giọng nói. Trên mạng xã hội, tội phạm có thể giả mạo nhân vật nổi tiếng, sử dụng các video có biểu cảm khuôn mặt không tự nhiên, kêu gọi đầu tư với lợi nhuận bất thường để đánh lừa người dùng.
Trước sự phát triển của công nghệ AI, việc nâng cao nhận thức và chủ động bảo vệ thông tin cá nhân là yếu tố then chốt để ngăn chặn các rủi ro. FBI và các chuyên gia bảo mật đã đưa ra một số khuyến nghị quan trọng. Người dùng cần kiểm soát nội dung cá nhân trên mạng xã hội, hạn chế chia sẻ công khai hình ảnh, video, giọng nói cá nhân để giảm nguy cơ bị lợi dụng. Đồng thời, cần cảnh giác với các cuộc gọi, email, tin nhắn lạ, đặc biệt khi nhận được yêu cầu cung cấp thông tin cá nhân từ những người tự xưng là nhân viên ngân hàng, công an hay lãnh đạo doanh nghiệp. Việc xác minh lại nguồn tin trước khi hành động là điều cần thiết. Ngoài ra, người dùng cũng cần nhận diện các dấu hiệu bất thường như hình ảnh bị méo mó, video có chuyển động bất thường hoặc giọng nói có ngữ điệu không tự nhiên, vì đây có thể là sản phẩm của deepfake. Cẩn trọng với những lời mời đầu tư cũng là điều quan trọng, bởi nếu một cơ hội đầu tư nghe có vẻ quá tốt để là thật, rất có thể đó là một chiêu trò lừa đảo.