Cá nhà nghiên cứu Apple tiết lộ, mô hình AI không thật sự thông minh như nhiều người lo ngại. |
Nghiên cứu từ Apple cho thấy, các mô hình ngôn ngữ lớn (LLM) phổ biến nhất hiện nay không thông minh như nhiều người lo ngại.
Các LLM từ OpenAI, Google hay Meta được đánh giá có thể tương tác tự nhiên với con người, gần nhất là mô hình OpenAI o1 "với khả năng lập luận". Dù vậy, theo nhóm nghiên cứu của Apple, chúng chỉ đơn thuần là "khớp mẫu tinh vi" thay vì "thực sự suy luận logic".
Mô hình ngôn ngữ lớn (LLM) là tập hợp các trí tuệ nhân tạo (AI) tiên tiến. Được thiết kế có khả năng xử lý, hiểu và tạo ra văn bản, ngôn ngữ tự nhiên giống như con người. Chúng được xây dựng dựa trên cơ sở của các kiến thức. Và thường được huấn luyện trên lượng lớn dữ liệu như sách, trang web, bài báo cáo. |
Trong vài năm qua, nhiều LLM như ChatGPT đã phát triển đến mức nhiều người dùng bắt đầu tự hỏi liệu họ có thực sự sở hữu trí thông minh hay không. Trong nỗ lực mới này, nhóm tại Apple đã giải quyết câu hỏi bằng cách cho rằng, câu trả lời nằm ở khả năng của một sinh vật thông minh, hoặc máy móc, để hiểu được những sắc thái hiện diện trong những tình huống đơn giản, đòi hỏi phải có lý luận logic.
Một sắc thái như vậy là khả năng tách thông tin có liên quan khỏi thông tin không liên quan. Ví dụ, nếu một đứa trẻ hỏi cha mẹ có bao nhiêu quả táo trong một túi, đồng thời lưu ý rằng một số quả quá nhỏ để ăn, thì cả đứa trẻ và cha mẹ đều hiểu rằng, kích thước của những quả táo không liên quan gì đến số lượng chúng có mặt. Điều này là do cả hai đều có khả năng suy luận logic. Tuy nhiên đối với máy móc thì chúng chưa thực sự có khả năng đó.
Trong nghiên cứu mới này, các nhà nghiên cứu đã kiểm tra khả năng hiểu thực sự những gì được yêu cầu của một số LLM bằng cách gián tiếp yêu cầu họ bỏ qua những thông tin không liên quan.
Việc thử nghiệm của họ bao gồm việc hỏi nhiều LLM hàng trăm câu hỏi đã từng được sử dụng trước đây như một phương tiện để kiểm tra khả năng của LLM, nhưng các nhà nghiên cứu cũng đưa vào một số thông tin không liên quan. Và họ thấy rằng, điều đó đủ để khiến các LLM đưa ra câu trả lời sai hoặc thậm chí vô nghĩa cho những câu hỏi mà trước đó chúng đã trả lời đúng.
Các nhà nghiên cứu cho rằng, điều này cho thấy các LLM không thực sự hiểu những gì nó được hỏi. Thay vào đó, nó nhận ra cấu trúc của một câu và sau đó đưa ra câu trả lời dựa trên những gì nó đã học được thông qua các thuật toán học máy.
Trưởng nhóm dự án, ông Mehrdad Farajtabar, nhấn mạnh rằng, ngay cả một thay đổi nhỏ như vậy cũng gây ra sự sụt giảm đáng kể về độ chính xác. Ông Farajtabar cho biết, điều này sẽ không thể xảy ra trong suy luận của con người - việc thay đổi tên trong một bài toán không ảnh hưởng đến khả năng giải bài của học sinh. Tuy nhiên, đối với các mô hình AI này, những thay đổi như vậy dẫn đến sự sụt giảm độ chính xác từ 10% trở lên, gây ra những lo ngại nghiêm trọng về tính ổn định của chúng.
Nói cách khác, khó có thể gọi các mô hình LLMs hiện nay là có khả năng suy luận, chúng chỉ đơn thuần làm theo các khuôn mẫu phức tạp có sẵn trong kho dữ liệu.
Những phát hiện này đặt ra một số vấn đề đáng lo ngại cho các ứng dụng AI trong các lĩnh vực như chăm sóc sức khỏe, ra quyết định và giáo dục, nơi tính nhất quán logic là điều bắt buộc. Nếu không cải thiện khả năng suy luận logic, các hệ thống AI hiện tại có thể gặp khó khăn khi hoạt động trong môi trường phức tạp hoặc quan trọng hơn.
Hiện các bên chưa đưa ra bình luận sau kết quả nghiên cứu của Apple.