Công cụ AI đang bị lợi dụng cho các chiến dịch tấn công độc hại

15:58 12/03/2024

Theo nghiên cứu, kẻ tấn công có thể sử dụng một loại sâu máy tính tương tự để tấn công các dịch vụ trí tuệ nhân tạo bằng cách nhập các câu lệnh có khả năng tự sao chép. Khi đó, các mô hình AI có thể được sử dụng để thực hiện các hoạt động độc hại.

Mặc dù sự ra đời của các mô hình trí tuệ nhân tạo thế hệ mới như ChatGPT và Gemini có thể gây ra lo ngại về việc mất việc làm và ảnh hưởng đến một số ngành nghề, nhưng vẫn có những mối quan tâm cấp bách hơn nhiều.

Gần đây, ba nhà nghiên cứu an ninh đến từ Mỹ và Israel đã tạo ra một loại sâu máy tính độc hại có khả năng tấn công các dịch vụ trí tuệ nhân tạo để thực hiện các hoạt động độc hại như trích xuất dữ liệu cá nhân, phát tán tin giả hoặc tiến hành các cuộc tấn công lừa đảo.

Công cụ AI đang bị lợi dụng cho các chiến dịch tấn công độc hại
Công cụ AI đang bị lợi dụng cho các chiến dịch tấn công độc hại.

Sâu máy tính này, được đặt tên là Morris II theo tên của loại sâu máy tính Morris đầu tiên xuất hiện vào năm 1988, được tạo ra nhằm cảnh báo các công ty công nghệ về những mối đe dọa tiềm ẩn khi các công cụ trí tuệ nhân tạo ngày càng phổ biến. Mặc dù mục đích của sâu máy tính này là cảnh báo, nhưng phần mềm độc hại AI mà nhóm này phát triển vẫn tiềm ẩn những nguy cơ đáng lo ngại.

Theo nghiên cứu, kẻ tấn công có thể sử dụng một loại sâu máy tính tương tự để tấn công các dịch vụ trí tuệ nhân tạo bằng cách nhập các câu lệnh có khả năng tự sao chép. Khi đó, các mô hình AI có thể được sử dụng để thực hiện các hoạt động độc hại.

Trong quá trình nghiên cứu, nhóm nghiên cứu đã thử nghiệm phần mềm độc hại bằng cách tấn công các trợ lý email được hỗ trợ bởi trí tuệ nhân tạo. Họ đã thành công biến một hình ảnh đính kèm trong email thành công cụ spam cho người dùng cuối. Trong một trường hợp khác, họ đã sử dụng văn bản trong email để đầu độc cơ sở dữ liệu của ứng dụng email của khách hàng và lấy cắp dữ liệu nhạy cảm.

Các nhà nghiên cứu giải thích rằng, mục đích của nghiên cứu này không phải là để phản đối sự phát triển, triển khai và tích hợp các khả năng của trí tuệ nhân tạo vào thực tế. Họ cũng không có ý định gây hoang mang cho người dùng. Mục tiêu của họ chỉ là cảnh báo về những mối đe dọa tiềm ẩn cần được xem xét kỹ lưỡng trong tương lai.

P.V (t/h)