Sam Altman cùng OpenAI đang đối mặt với khủng hoảng về quản trị

14:47 20/05/2024

Việc giải thể Superalignment Team mới đây cho thấy sự lục đục trong nội bộ OpenAI sau cuộc khủng hoảng về quản trị hồi tháng 11/2023.

Sam Altman
Sam Altman - CEO OpenAI.

Tháng 7/2023, OpenAI tuyên bố thành lập Superalignment Team - nhóm có vai trò ngăn ngừa những rủi ro dài hạn liên quan đến trí tuệ nhân tạo, đồng thời nghiên cứu về các AI siêu thông minh, có khả năng đánh lừa và chế ngự con người.

Jan Leike, Giám đốc an toàn của OpenAI đồng thời là đồng lãnh đạo dự án Superalignment đã tuyên bố nghỉ việc và chỉ trích Sam Altman chạy theo những sản phẩm hào nhoáng thay vì phát triển AI có trách nhiệm.

"Tôi từ chức", Jan Leike, viết ngắn gọn trên X ngày 14/5. 

Trước đó vài tiếng, Ilya Sutskever, nhà khoa học trưởng của OpenAI, cũng đăng thông báo: "Sau gần một thập kỷ, tôi quyết định rời OpenAI. Tôi rất hào hứng với những gì diễn ra với bản thân, một dự án rất có ý nghĩa. Tôi sẽ chia sẻ chi tiết hơn lúc thích hợp".

Ông Sutskever là một trong những cộng sự đắc lực của CEO Sam Altman trong việc thành lập OpenAI vào năm 2015 và tạo ra chatbot ChatGPT nổi tiếng. Tuy nhiên, ông cũng là một trong 4 thành viên Hội đồng quản trị đồng ý sa thải Altman vào tháng 11/2023.

Nguồn tin của CNN trước đây đưa tin, ông Sutskever lo ngại rằng, CEO Altman đang đẩy công nghệ AI “quá xa, quá nhanh”. Nhưng vài ngày sau khi ông Altman bị sa thải, ông Sutskever đã thay đổi quan điểm: Ông đã ký một lá thư của nhân viên kêu gọi toàn bộ Hội đồng quản trị từ chức và ông Altman quay trở lại.

Tuy nhiên, các câu hỏi về cách thức và tốc độ phát triển và phát hành công khai công nghệ AI có thể đã tiếp tục gây căng thẳng trong nội bộ công ty trong những tháng sau khi CEO Altman giành lại quyền kiểm soát công ty. Sự ra đi của các nhà điều hành diễn ra sau khi OpenAI công bố trong tuần này rằng, họ sẽ cung cấp miễn phí mô hình AI mạnh nhất của mình, GPT-4o, cho công chúng thông qua ChatGPT. Công nghệ này sẽ làm cho ChatGPT giống một trợ lý cá nhân kỹ thuật số hơn, có khả năng trò chuyện bằng giọng nói theo thời gian thực.

“Tôi tin rằng băng thông của chúng ta nên được dành nhiều hơn nữa để sẵn sàng cho các thế hệ mô hình tiếp theo, về bảo mật, giám sát, sự sẵn sàng, an toàn, sức mạnh chống lại đối thủ, liên kết và siêu liên kết, bảo mật, tác động xã hội và các chủ đề liên quan”, ông Leike viết trên trang X của ông hồi cuối tuần. “Rất khó để giải quyết những vấn đề này một cách đúng đắn và tôi lo ngại rằng chúng ta đang không đi đúng quỹ đạo để đạt được điều đó.”

Việc nhóm của ông nghiên cứu cách điều chỉnh AI sao cho phù hợp và an toàn với nhân loại đã đi ngược hướng phát triển của công ty hiện tại. Trong vài tháng qua, nhóm gặp khó khăn khi không có đủ tài nguyên máy tính để thực hiện các nghiên cứu quan trọng.

Leike khuyến khích nhân viên OpenAI tiếp tục thay đổi văn hóa công ty bằng lời nhắn: "Tôi đang trông cậy vào bạn. Thế giới đang trông cậy vào bạn".

Sam Altman sau đó phản hồi: "Tôi vô cùng đánh giá cao các đóng góp của Jan Leike đối với văn hóa an toàn của OpenAI và rất buồn khi ông ấy rời đi. Ông ấy nói đúng, chúng tôi còn rất nhiều việc phải làm, chúng tôi cam kết thực hiện điều đó. Tôi sẽ có một bài viết dài hơn trong vài ngày tới".

Sau sự ra đi của ông Sutskever và ông Leike, OpenAI đã xác nhận với báo chí rằng, trong những tuần gần đây, họ đã bắt đầu giải thể nhóm siêu liên kết của mình và thay vào đó là tích hợp các thành viên của nhóm vào các nhóm nghiên cứu khác nhau của mình. Người phát ngôn của công ty cho biết, cấu trúc đó sẽ giúp OpenAI đạt được các mục tiêu siêu liên kết của mình tốt hơn.

Theo WSJ, sự rối ren tại công ty sở hữu ChatGPT đã ngày càng trở nên phức tạp khi đội ngũ của Ilya Sutskever tập trung vào việc đảm bảo trí tuệ nhân tạo sẽ không gây hại cho con người, còn những người khác, trong đó có Sam Altman, lại háo hức và đẩy nhanh việc đưa các công nghệ mới ra thị trường. Đây được cho là nguyên nhân của vụ lật đổ Sam Altman cuối năm ngoái, trước khi ông giành lại vị trí CEO sau hơn 4 ngày.

Việc giải thể Superalignment Team cũng cho thấy sự lục đục trong nội bộ OpenAI sau cuộc khủng hoảng về quản trị hồi tháng 11/2023.

Theo The Information, 2 nhà nghiên cứu trong nhóm, Leopold Aschenbrenner và Pavel Izmailov, đã bị sa thải vì làm rò rỉ bí mật của công ty. Một thành viên khác là William Saunders đã rời OpenAI vào tháng 2 vừa qua.

Hai nhà nghiên cứu chuyên về chính sách và quản trị AI cũng được cho là đã rời công ty gần đây. Theo thông tin đăng tải trên LinkedIn, Cullen O'Keefe đã từ chức Trưởng nhóm nghiên cứu về các lĩnh vực chính sách tại OpenAI hồi tháng 4.

Daniel Kokotajlo, một nhân viên khác của OpenAI cũng ẩn ý trên trang cá nhân về chuyện thôi việc “do mất niềm tin rằng công ty sẽ hành xử có trách nhiệm khi nghiên cứu về AI".

Việc nghiên cứu về những rủi ro liên quan đến AI hiện do John Schulman tiếp quản. Anh là người đứng đầu nhóm chịu trách nhiệm tinh chỉnh các mô hình AI sau đào tạo tại công ty của Sam Altman.

Không có dấu hiệu nào cho thấy làn sóng thôi việc tại OpenAI có liên quan việc tạo ra các AI siêu thông minh của công ty. Nhưng những tiến bộ mới nhất đã làm dấy lên lo ngại về quyền riêng tư, rủi ro an ninh mạng và việc con người bị AI thao túng.

OpenAI đang duy trì một nhóm khác là Preparedness team để nghiên cứu về những vấn đề này.

Phương Linh (T/h)