EU lên kế hoạch điều chỉnh trí tuệ nhân tạo AI như thế nào?

06:44 14/06/2023

Nghị viện Châu Âu muốn phân chia nội dung do trí tuệ nhân tạo tạo ra thành các loại rủi ro khác nhau. Mặc dù một số hệ thống có thể bị cấm nhưng các dịch vụ phổ biến như ChatGPT sẽ khó bị ảnh hưởng.

Ảnh minh họa
Ảnh minh họa.

Ngày 14 tháng 6, quốc hội Liên minh châu Âu sẽ thảo luận về một dự thảo luật mới liên quan đến việc điều chỉnh việc sử dụng trí tuệ nhân tạo (AI). Theo dự thảo luật này, tất cả các nội dung do AI tạo ra sẽ phải được đánh dấu và các ứng dụng AI sẽ được phân loại theo các mức độ rủi ro khác nhau.

Nếu dự thảo luật này được thông qua, luật sẽ áp đặt các hạn chế đối với các hệ thống AI có khả năng phân tích và dự đoán hành vi xã hội của con người với mức độ rủi ro cao. Các hệ thống AI có rủi ro cao khác cũng sẽ bị giới hạn trong phạm vi hoạt động của chúng. Tuy nhiên, các ứng dụng AI đơn giản như trình tạo văn bản như ChatGPT sẽ không gặp nhiều hạn chế.

Theo dự thảo luật, các công ty muốn bán các ứng dụng AI có rủi ro tại Liên minh châu Âu sẽ phải tuân thủ các yêu cầu nghiêm ngặt và thiết lập các biện pháp quản lý rủi ro cho sản phẩm của họ. Đồng thời, dữ liệu được sử dụng để đào tạo các chương trình AI sẽ phải được kiểm tra và những người cung cấp dữ liệu sẽ phải được thông báo về mục đích sử dụng dữ liệu đó.

Trong tháng 4, Ý đã áp đặt một lệnh cấm tạm thời đối với ChatGPT do thiếu sót trong việc bảo vệ dữ liệu. Tuy nhiên, lệnh cấm đã được dỡ bỏ sau khi OpenAI, công ty đứng sau trình tạo văn bản AI, thực hiện một số thay đổi nhất định để cải thiện vấn đề này.

Trong chuyến thăm mới nhất tới Đức, Giám đốc điều hành của OpenAI, Sam Altman, cảnh báo về quy định quá nhiều. Ở một thời điểm nào đó, ông thậm chí đe dọa rút khỏi châu Âu, nhưng sau đó ông đã rút lại tuyên bố này.

Hiện nay, Altman đồng ý rằng các quy tắc nguyên tắc đối với trí tuệ nhân tạo là tốt, nhưng ông đòi hỏi sự rõ ràng. Tuy nhiên, ông vẫn là một nhân vật quan trọng trong việc phát triển trí tuệ nhân tạo và ông đã được Chủ tịch Đức Olaf Scholz đón tiếp tại Berlin.

René Repasi, thành viên của Quốc hội châu Âu đến từ Đức, hài lòng với việc OpenAI và công ty mẹ Microsoft đảm nhận công việc quy định. Ông tin rằng thị trường châu Âu quá hấp dẫn để các công ty trí tuệ nhân tạo bỏ qua.

Repasi, người phát ngôn về trí tuệ nhân tạo cho đảng xã hội dân chủ trong Quốc hội châu Âu, nói: "Tất cả những ai muốn bán hàng ở đây phải tuân thủ các tiêu chuẩn của chúng tôi."

Quốc hội Hoa Kỳ cũng đang cố gắng phát triển quy tắc trong học máy, Repasi nói rằng các lập pháp gia của EU đã tiếp xúc với đồng nghiệp Mỹ của họ. Ông nói với DW: "Cuối cùng, chúng ta muốn tạo ra các tiêu chuẩn có ý nghĩa và không cạnh tranh lẫn nhau."

Cảnh báo về nguy hiểm của trí tuệ nhân tạo

Geoffrey Hinton, một trong những nhà đổi mới hàng đầu trong lĩnh vực trí tuệ nhân tạo và cựu nhân viên của Google, là một trong những người cảnh báo về nguy hiểm của công nghệ này.

Ông cho rằng trí tuệ nhân tạo có thể sớm thông minh hơn người tạo ra nó và ảnh hưởng của nó đối với thị trường lao động có thể rất lớn.

Ngay cả các nhà phát triển và các nhà lãnh đạo cao cấp của Microsoft và Google cũng thừa nhận rằng họ không hiểu hoàn toàn cách các ứng dụng trí tuệ nhân tạo hoạt động.

Nhiều nhà nghiên cứu và doanh nhân khác nhau, bao gồm Giám đốc điều hành Twitter Elon Musk, đã đề xuất các phương pháp khác nhau để hạn chế phát triển trí tuệ nhân tạo.

Luật trí tuệ nhân tạo của EU có hiệu lực trong hai năm.

Liên minh châu Âu sẽ áp dụng luật về trí tuệ nhân tạo trong vòng hai năm nữa. Điều này là do nó cần sự chấp thuận từ tất cả 27 quốc gia thành viên và quốc hội.

Axel Voss, một nhà lập pháp EU đến từ Đức, cho biết với sự phát triển nhanh chóng của các ứng dụng như ChatGPT, công nghệ này có thể đã thay đổi và cải tiến rất nhiều vào thời điểm đó. Ông nói với DW rằng: "Sự phát triển diễn ra quá nhanh nên rất nhiều quy định sẽ không còn phù hợp khi luật có hiệu lực thực tế.".

Voss đã làm việc về trí tuệ nhân tạo cho nhóm Dân chủ Cơ đốc giáo bảo thủ trong Nghị viện Châu Âu trong nhiều năm và là một trong những tác giả chính của dự thảo "Đạo luật Trí tuệ Nhân tạo" của EU. Ông cho biết: "Thực ra, chúng ta cần – vì lý do cạnh tranh và vì chúng ta đã bị tụt lại phía sau – lạc quan hơn trong việc đối phó với AI. "Những gì đa số trong Nghị viện châu Âu dường như đang nói cho thấy họ bị thúc đẩy bởi nỗi sợ hãi và lo lắng và đang cố gắng hết sức hạn chế."

Theo Reparsi, luật về AI nên linh hoạt. Câu hỏi thế nào là rủi ro cao hay ít rủi ro với AI không nên được quy định trong văn bản pháp lý thực tế mà nên đưa vào phụ lục, để có thể thay đổi nhanh chóng và thích ứng với sự phát triển của công nghệ.

Hiệp hội Giám sát Kỹ thuật ở Đức, Văn phòng Liên bang về Bảo mật Thông tin và Viện Hệ thống Thông tin và Phân tích Thông minh Fraunhofer đang xem xét giới thiệu một "chứng chỉ AI", các ứng dụng của nó sẽ phải được chứng nhận bởi các chuyên gia độc lập.

Các ứng dụng như ô tô tự lái hoặc robot được sử dụng trong phẫu thuật y tế đòi hỏi sự tin tưởng lớn vào AI từ công chúng, điều này có thể được thiết lập với một hệ thống chứng chỉ như vậy.

Hải Anh