OpenAI đề xuất thành lập tổ chức chống lại rủi ro từ AI 'siêu thông minh'

22:37 24/05/2023

Mặc dù trí tuệ nhân tạo (AI) đem lại nhiều lợi ích, nhưng OpenAI nhận thức được rằng AI có thể gây ra những hậu quả không mong muốn nếu không được giám sát chặt chẽ.

Ảnh minh họa
Ảnh minh họa.

Theo Guardian, các nhà lãnh đạo của OpenAI đã kêu gọi đưa ra quy định về các trí tuệ nhân tạo (AI) “siêu thông minh”, lập luận rằng cần có một cơ quan tương đương với Cơ quan Năng lượng Nguyên tử Quốc tế để bảo vệ loài người khỏi nguy cơ vô tình tạo ra thứ gì đó có sức mạnh hủy diệt.

Trong một ghi chú ngắn đăng trên trang web của công ty, những người đồng sáng lập Greg Brockman và Ilya Sutskever cùng Giám đốc điều hành, Sam Altman, kêu gọi thành lập một cơ quan quản lý quốc tế và bắt đầu làm việc về cách “kiểm tra hệ thống, yêu cầu kiểm tra, kiểm tra việc tuân thủ các tiêu chuẩn an toàn và đặt ra các hạn chế về mức độ triển khai cùng mức độ bảo mật” để giảm “rủi ro tồn tại” mà các hệ thống như vậy có thể gây ra.

Họ viết: “Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay. Xét về mặt tích cực và tiêu cực, AI 'siêu thông minh' sẽ mạnh hơn so với các công nghệ khác mà nhân loại phải đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều, nhưng phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro hiện hữu, chúng ta không thể chỉ phản ứng mà phải có cách tiếp cận tích cực”.

Trong tương lai ngắn hạn, ba nhà đồng sáng lập OpenAI kêu gọi có "mức độ phối hợp" giữa các công ty đang làm việc ở lĩnh vực nghiên cứu AI tiên tiến, nhằm đảm bảo việc phát triển các mô hình mạnh mẽ hơn tích hợp một cách suôn sẻ với xã hội nhưng vẫn ưu tiên sự an toàn. Sự phối hợp đó có thể thông qua một dự án do chính phủ dẫn đầu hoặc thỏa thuận tập thể để hạn chế sự phát triển khả năng của AI.

Là một trong những tổ chức hàng đầu trong lĩnh vực AI, OpenAI - nhà phát triển ChatGPT đình đám thời gian qua đặt mục tiêu tạo ra AI thân thiện có thể hợp tác với con người và phục vụ cho lợi ích của nhân loại. Ông Brockman cho biết, trong tương lai, AI do OpenAI phát triển sẽ giải quyết một số thách thức lớn của thế giới như biến đổi khí hậu và điều trị bệnh ung thư.

Tuy nhiên, OpenAI nhận thức được rằng AI có thể gây ra những hậu quả không mong muốn nếu không được giám sát chặt chẽ. Trước những lo ngại về thông tin sai lệch, đảm bảo việc làm và các rủi ro tiềm tàng khác, ông Brockman cũng cho rằng, sự can thiệp của các chính phủ thông qua khung pháp lý cụ thể có ý nghĩa quan trọng trong việc giảm thiểu các nguy cơ tiềm ẩn của những công nghệ siêu việt đang ngày càng phát triển.

Giám đốc điều hành OpenAI Sam Altman. Ảnh: AFP
Giám đốc điều hành OpenAI Sam Altman. Ảnh: AFP.

Tuần trước, Giám đốc điều hành (CEO) OpenAI, Sam Altman cũng đã đề xuất với các nhà lập pháp Mỹ về việc tạo ra các hành lang pháp lý đối với AI, trong đó có việc yêu cầu giấy phép phát triển các mô hình AI phức tạp và xây dựng cơ chế quản lý liên quan.

Phát biểu trong phiên điều trần trước Tiểu ban Tư pháp Thượng viện Mỹ, CEO Altman nhấn mạnh, OpenAI được thành lập dựa trên niềm tin rằng AI có khả năng cải thiện gần như mọi khía cạnh trong đời sống con người, song cũng có thể gây những rủi ro nghiêm trọng.

Trước những lo ngại về thông tin sai lệch, đảm bảo việc làm và các rủi ro tiềm tàng khác, ông cho rằng, sự can thiệp của chính phủ thông qua các quy định có ý nghĩa quan trọng để giảm thiểu các nguy cơ tiềm tàng của những công nghệ ngày càng phát triển.

Kể từ khi ra mắt ngày 30.11, ChatGPT sử dụng công nghệ AI tạo sinh đã trở thành ứng dụng có tốc độ tăng trưởng nhanh nhất mọi thời đại.

Ứng dụng ChatGPT có thể đưa ra câu trả lời cho những câu hỏi hóc búa, viết mã code, sáng tác thơ hoặc viết bài luận, thậm chí có thể giúp học sinh - sinh viên vượt qua các kỳ thi khó.

Tuy nhiên, công nghệ AI cũng trở thành tâm điểm quan ngại về khả năng có thể tạo ra hình ảnh deepfake và các thông tin sai lệch khác.

Phương Anh (t/h)