Bài liên quan |
Bí quyết tự do tài chính của cựu kỹ sư Google |
Lập trường cứng rắn của EU nhằm hạn chế quyền lực của các Big Tech |
Google thử nghiệm gói lưu trữ mới với mức giá siêu tiết kiệm |
Nỗ lực mới của Google nhằm tăng tính minh bạch với công nghệ AI. |
Gã khổng lồ tìm kiếm Google quyết định sẽ sử dụng công nghệ để xác định và dán nhãn hình ảnh do AI tạo ra ở trang kết quả tìm kiếm trong thời gian tới.
Theo đó, gã khổng lồ công nghệ sẽ đánh dấu các nội dung này ở cửa sổ thông tin về bức ảnh (About this image) trong mục Tìm kiếm (Search), Kính Google (Google Lens) và tính năng Vẽ vòng tìm kiếm (Circle to Search) trên Android.
Bằng cách nhấp vào biểu tượng ba dấu chấm trên hình ảnh, họ sẽ kiểm tra được xem đó có phải là hình ảnh AI hay không. Mặc dù tính năng này hứa hẹn cung cấp nhiều thông tin hơn về hình ảnh, nhưng thao tác vẫn cần thêm vài bước và sẽ không thuận tiện cho tất cả người dùng.
Theo các nguồn tin, quyết định cuối cùng sẽ được công bố vào cuối năm nay.
Động thái này diễn ra sau khi Google tham gia liên minh Coalition for Content Provenance and Authenticity (Liên minh về Nguồn gốc và Tính xác thực của nội dung - C2PA), một tổ chức liên kết các công ty công nghệ hàng đầu như Amazon, Adobe và Microsoft nhằm đối phó với thông tin sai lệch trên mạng. Google cam kết áp dụng tiêu chuẩn "Content Credentials (xác thực nội dung)" cho các hình ảnh hiển thị trong kết quả tìm kiếm, cung cấp thông tin chi tiết về cách hình ảnh được tạo ra thông qua siêu dữ liệu (metadata). Các thông tin như nguồn gốc, thời gian, địa điểm và phương pháp tạo ra hình ảnh sẽ được tích hợp vào tính năng này nhằm mang lại tính minh bạch cho người dùng.
C2PA cũng đã được Google áp dụng để gắn nhãn các nội dung video trên Youtube có sử dụng AI. Nói cách khác, sắp tới những nội dung video Youtube nào có xài nguồn do AI tạo ra sẽ được thông báo để người dùng biết khi xem.
Không chỉ Google mà nhiều công ty công nghệ lớn khác từ đầu năm cũng bắt đầu tìm cách gắn nhãn và thông báo cho người dùng biết đâu là nội dung tạo ra bởi AI. Điển hình như cách đây không lâu Meta đã gắn nhãn các hình ảnh có can thiệp AI trên mạng xã hội Facebook, Instagram và Thread. Thậm chí theo quy định mới cập nhật, các hình ảnh AI sẽ bị giảm hiển thị trên các nền tảng của Meta.
Tuy nhiên, cơ chế gắn nhãn nội dung AI của Meta hiện cũng còn nhiều lỗ hổng. Có người đã phát hiện rằng chỉ cần đưa hình ảnh AI vào chỉnh trong Photoshop rồi đưa lên Facebook thì nó sẽ vượt qua được kiểm duyệt AI của nền tảng này và hiển thị như hình ảnh bình thường.
Ngoài ra, không phải tất cả nhà phát triển AI đều chấp nhận tiêu chuẩn này. Điển hình là Black Forest Labs, công ty phát triển mô hình Flux được sử dụng bởi Grok của mạng xã hội X (trước đây là Twitter), đã từ chối áp dụng C2PA.
Trong vòng hai năm qua, số lượng các vụ lừa đảo trực tuyến sử dụng deepfake do AI tạo ra đã tăng vọt. Vào tháng 2, một nhà đầu tư tại Hồng Kông đã bị lừa chuyển 25 triệu USD cho những kẻ lừa đảo đóng giả làm giám đốc tài chính của công ty trong cuộc họp video call.
Sumsub, nhà cung cấp dịch vụ xác minh công bố báo cáo cho thấy số vụ lừa đảo deepfake đã tăng 245% trên toàn cầu trong khoảng thời gian từ năm 2023 đến năm 2024, riêng ở Mỹ tăng 303%.
Việc gắn nhãn hình ảnh AI của Google là một bước đi tích cực, nhưng liệu có đủ để ngăn chặn hoàn toàn các nguy cơ từ công nghệ AI vẫn là một câu hỏi mở.