Safe Superintelligence có trụ sở tại Palo Alto và văn phòng đầu tiên ở Tel Aviv (Israel). "Trọng tâm duy nhất của chúng tôi là không bị phân tâm bởi chi phí quản lý hay chu kỳ sản phẩm. Mô hình kinh doanh luôn hướng đến an toàn, bảo mật, và sẽ được cách ly khỏi áp lực thương mại ngắn hạn", Sutskever viết trên X ngày 20/6.
Safe Superintelligence tự hào là công ty khởi nghiệp tiếp cận vấn đề "an toàn và năng lực song song", cho phép phát triển hệ thống AI nhanh chóng mà vẫn đặt sự an toàn lên hàng đầu. Thông báo cũng đề cập đến áp lực mà các nhóm AI tại OpenAI, Google và Microsoft phải đối mặt. Safe Superintelligence khẳng định "chỉ tập trung vào một mục tiêu duy nhất", tránh bị "phân tâm bởi các vấn đề quản lý hoặc vòng xoay sản phẩm". Safe Superintelligence tự tin khẳng định: "Mô hình kinh doanh của chúng tôi đồng nghĩa với việc an toàn, bảo mật và tiến độ đều được cách ly khỏi áp lực thương mại ngắn hạn. Bằng cách này, chúng tôi có thể phát triển trong hòa bình".
Bên cạnh Sutskever, Safe Superintelligence còn có sự tham gia của Daniel Gross, cựu Trưởng nhóm AI tại Apple (Mỹ), và Daniel Levy, cựu nhân viên kỹ thuật tại OpenAI. Năm ngoái, chính Sutskever là người đã dẫn đầu nỗ lực loại bỏ CEO Sam Altman của OpenAI. Ông rời OpenAI vào tháng 5 và úp mở về một dự án mới. Ngay sau đó, nhà nghiên cứu AI Jan Leike cũng tuyên bố rời OpenAI, với lý do quy trình an toàn đã "bị gạt sang một bên để nhường chỗ cho các sản phẩm hào nhoáng". Gretchen Krueger, nhà nghiên cứu chính sách tại OpenAI, cũng bày tỏ lo ngại về vấn đề an toàn khi rời công ty.
Trong khi OpenAI đang đẩy mạnh hợp tác với Apple và Microsoft, Safe Superintelligence dường như sẽ không đi theo con đường đó. Trong một cuộc phỏng vấn với Bloomberg, Sutskever chia sẻ rằng sản phẩm đầu tiên của Safe Superintelligence sẽ là siêu trí tuệ an toàn và công ty "sẽ không làm bất cứ điều gì khác" cho đến lúc đó.
Tú Anh (T/h)