OpenAI được cho là có một công cụ phát hiện văn bản do ChatGPT tạo ra với độ chính xác lên tới 99,9%, nhưng hãng vẫn còn lưỡng lự trong việc phát hành do lo ngại ảnh hưởng đến lượng người dùng.
Theo thông tin từ The Wall Street Journal, công cụ này đã được hoàn thiện từ năm ngoái và có thể dễ dàng sử dụng chỉ bằng một nút bấm. Tuy nhiên, một cuộc khảo sát nội bộ của OpenAI cho thấy 30% người dùng sẽ ngừng sử dụng ChatGPT nếu công cụ này được triển khai, do lo ngại về việc bị cáo buộc sử dụng AI để gian lận.
Công cụ này, được gọi là 'invisible watermark', hoạt động bằng cách tạo ra các mẫu đặc biệt trong cách lựa chọn từ ngữ, cho phép một công cụ khác dễ dàng nhận diện.
Ngoài ra, OpenAI cũng cho biết, công cụ này vẫn còn một số hạn chế, đặc biệt là trong việc phát hiện văn bản đã qua chỉnh sửa hoặc dịch thuật.
Mặc dù vậy, việc OpenAI sở hữu công cụ này vẫn là một tin tốt cho các giáo viên và doanh nghiệp, những người đang lo ngại về việc lạm dụng ChatGPT để gian lận hoặc đạo văn. Nếu được phát hành, công cụ này có thể giúp họ dễ dàng phát hiện các nội dung được tạo ra bởi AI, từ đó có biện pháp xử lý phù hợp.
Hiện tại, OpenAI vẫn chưa đưa ra quyết định cuối cùng về việc phát hành công cụ này. Quyết định của OpenAI sẽ không chỉ ảnh hưởng đến tương lai của công ty, mà còn có thể định hình cách thức mà công nghệ AI được sử dụng và quản lý trong xã hội. Đây là một ví dụ điển hình về những thách thức đạo đức mà các công ty công nghệ phải đối mặt trong kỷ nguyên AI, khi họ phải cân bằng giữa trách nhiệm xã hội và áp lực kinh doanh.
Thế giới đang chờ đợi để xem OpenAI sẽ đưa ra quyết định gì trong tình thế khó xử này. Liệu họ sẽ ưu tiên tính minh bạch và trách nhiệm, hay sẽ chọn bảo vệ lợi ích kinh doanh của mình? Câu trả lời có thể sẽ đặt ra một tiền lệ quan trọng cho toàn bộ ngành công nghiệp AI trong tương lai.
Phương Anh (t/h)