Trung Quốc ban hành hướng dẫn đạo đức đầu tiên về công nghệ trí tuệ nhân tạo

10:42 03/10/2021

Trung Quốc đã tiết lộ bộ hướng dẫn đạo đức đầu tiên về trí tuệ nhân tạo, nhấn mạnh vào khả năng bảo vệ quyền của người dùng và ngăn ngừa rủi ro theo những cách phù hợp với mục tiêu của Bắc Kinh là kiềm chế ảnh hưởng của Big Tech và trở thành nhà lãnh đạo AI toàn cầu vào năm 2030.

Ảnh minh họa
Ảnh minh họa. (Ảnh: internet) 

Tài liệu do Bộ Khoa học và Công nghệ Trung Quốc xuất bản chỉ ra: Con người phải có toàn quyền quyết định, nhà nước hướng dẫn và có quyền lựa chọn hay chấp nhận các dịch vụ AI, thoát khỏi tương tác với hệ thống AI hoặc ngừng hoạt động của nó bất cứ lúc nào. Mục tiêu là “đảm bảo rằng trí tuệ nhân tạo luôn nằm trong tầm kiểm soát của con người”, hướng dẫn nêu rõ.

Rebecca Arcesati, một nhà phân tích tại Viện nghiên cứu Trung Quốc của tổ chức tư vấn Mercator cho biết: “Đây là thông số đầu tiên mà chúng tôi thấy từ chính phủ Trung Quốc về đạo đức AI. Trước đây chúng ta chỉ thấy những nguyên tắc cấp cao.” Các hướng dẫn, có tiêu đề “Thông số kỹ thuật đạo đức trí tuệ nhân tạo thế hệ mới”, được soạn thảo bởi một ủy ban quản trị AI, thành lập trực thuộc Bộ KH&CN vào tháng 2 năm 2019. Vào tháng 6 năm đó, ủy ban đã xuất bản một bộ nguyên tắc hướng dẫn quản trị AI ngắn hơn và rộng hơn so với các thông số kỹ thuật mới được phát hành. “Trung Quốc cuối cùng đang lựa chọn một mô hình, nơi nhà nước đang suy nghĩ rất nghiêm túc về những chuyển đổi xã hội lâu dài mà AI sẽ mang lại”, Arcesati nói.

Tài liệu nêu ra sáu nguyên tắc cơ bản cho các hệ thống AI, bao gồm việc đảm bảo rằng công nghệ này “có thể kiểm soát và đáng tin cậy”. Các nguyên tắc khác là cải thiện phúc lợi của con người, thúc đẩy công bằng và công lý, bảo vệ quyền riêng tư và an toàn và nâng cao trình độ đạo đức. Việc nhấn mạnh vào bảo vệ và trao quyền cho người dùng phản ánh nỗ lực của Bắc Kinh nhằm thực hiện quyền kiểm soát nhiều hơn đối với lĩnh vực công nghệ của đất nước. Một trong những động thái mới nhất trong cuộc đàn áp kéo dài một năm là nhắm vào các thuật toán đề xuất nội dung, vốn thường dựa vào các hệ thống AI được xây dựng dựa trên việc thu thập và phân tích một lượng lớn dữ liệu người dùng. Các hướng dẫn AI mới là “một thông điệp rõ ràng cho những gã khổng lồ công nghệ đã xây dựng toàn bộ mô hình kinh doanh trên các thuật toán”, Arcesati nói.

Tuy nhiên, những thay đổi đang được thực hiện dưới danh nghĩa người dùng lựa chọn, cho phép người dùng kiểm soát nhiều hơn các tương tác của họ với các hệ thống AI trực tuyến, một vấn đề mà các quốc gia khác cũng đang phải đối mặt. Bảo mật dữ liệu, quyền riêng tư cá nhân và quyền chọn không tham gia vào quá trình ra quyết định dựa trên AI đều được đề cập trong tài liệu mới. Tài liệu cho hay, việc ngăn ngừa rủi ro đòi hỏi phải phát hiện và giải quyết các lỗ hổng kỹ thuật và bảo mật trong các hệ thống AI, đảm bảo rằng các thực thể có liên quan phải chịu trách nhiệm và cải thiện việc quản lý và kiểm soát chất lượng sản phẩm AI.

Hướng dẫn cũng cấm các sản phẩm và dịch vụ AI tham gia vào các hoạt động bất hợp pháp và gây nguy hiểm nghiêm trọng đến an ninh quốc gia, an ninh công cộng hoặc an ninh sản xuất. Tài liệu nêu rõ, công nghệ AI không được làm tổn hại đến lợi ích công cộng. Vào năm 2017, Hội đồng Nhà nước Trung Quốc đã đặt ra một kế hoạch đầy tham vọng nhằm vượt qua Mỹ để trở thành nhà lãnh đạo toàn cầu về AI. Giai đoạn đầu của kế hoạch chỉ rõ rằng, ngành công nghiệp trong nước phải bắt kịp với công nghệ AI hàng đầu, các ứng dụng, hướng dẫn đạo đức và khung chính sách vào năm 2020. Mục tiêu tiếp theo là có những đột phá lớn về AI vào năm 2025 và trở thành quốc gia hàng đầu trong lĩnh vực này vào cuối thập kỷ này.

TL