
Các mô hình Trí tuệ nhân tạo (AI) từ lâu đã nổi tiếng với việc tự ý tạo ra những trích dẫn không có thật. Khi phát hành GPT-5, OpenAI cho biết tần suất của các trích dẫn giả và các dạng “ảo giác” (hallucination), “lừa gạt” (deception) đã được hạn chế rõ rệt.
Khác với xu hướng chung của ngành, nơi các mô hình AI mới thường tạo ra nhiều “ảo giác” hơn khi cố gắng mô phỏng khả năng suy luận của con người, GPT-5 lại cho thấy điều ngược lại. Trong một bài kiểm tra tiêu chuẩn, GPT-5 đã chứng minh sự vượt trội của mình so với các phiên bản tiền nhiệm trong việc đưa ra câu trả lời có trích dẫn. Tuy vậy, hiện tượng “ảo giác” vẫn khó loại bỏ hoàn toàn, bởi nó gắn liền với cách thức vận hành của các mô hình ngôn ngữ lớn (LLM).
Tianyang Xu, nhà nghiên cứu AI tại Đại học Purdue (West Lafayette, Indiana, Mỹ), cho biết: Đối với hầu hết các trường hợp ảo giác, tỷ lệ đã giảm xuống một mức có vẻ chấp nhận được đối với người dùng. Tuy nhiên, trong các lĩnh vực mang tính kỹ thuật cao như luật và toán học, GPT-5 vẫn dễ vấp phải khó khăn khi xử lý.
Đồng thời, dù tỷ lệ “ảo giác” đã được cải thiện, nhưng người dùng vẫn nhanh chóng nhận ra rằng, mô hình này vẫn mắc lỗi trong các tác vụ cơ bản, chẳng hạn như như tạo dòng thời gian minh họa về các đời tổng thống Mỹ.
OpenAI đang có những bước tiến nhỏ tích cực, nhưng còn rất lâu nữa mới đạt đến mục tiêu cần thiết. Tần suất GPT thừa nhận “tôi không biết” là chưa đủ nhiều, Mark Steyvers, nhà nghiên cứu về khoa học nhận thức và AI tại Đại học California, Irvine, Mỹ.
Tại sao AI lại “bịa đặt”? Không phải lỗi, đó là “tính năng”
Hiện tượng “ảo giác” là hệ quả từ cách thức vận hành cốt lõi của các LLM. Về bản chất, đây là những cỗ máy thống kê, đưa ra dự đoán bằng cách tổng quát hóa dựa trên các liên kết đã học được. Điều này khiến chúng tạo ra những câu trả lời nghe có vẻ hợp lý, nhưng đôi khi lại hoàn toàn sai sự thật.

Theo một khía cạnh khác, trong một nghiên cứu được OpenAI công bố, các LLM được “thưởng” trong quá trình huấn luyện khi cố gắng đưa ra câu trả lời, thay vì thừa nhận sự không “chuẩn” của mình – giống như một học sinh đoán mò vẫn được điểm trong bài thi trắc nghiệm.
Theo bà Xu, sự cải thiện có được nhờ việc mở rộng quy mô LLM: các liên kết nội tại ngày càng phong phú hơn, đồng thời dữ liệu huấn luyện cũng nhiều hơn. Tuy nhiên, hiện tượng “ảo giác” vẫn đặc biệt phổ biến ở những chủ đề mà mô hình có ít dữ liệu huấn luyện hoặc khi thông tin nền tảng của nó bị sai lệch. Hiện tượng này cũng có thể xảy ra khi một AI cố gắng tóm tắt hoặc phân tích các bài báo quá dài so với khả năng xử lý của mô hình đó.
Mushtaq Bilal, nhà nghiên cứu tại Silvi, công ty ở Copenhagen, Đan Mạch chuyên phát triển ứng dụng AI hỗ trợ việc tạo ra các đánh giá khoa học có hệ thống, cũng cho rằng việc loại bỏ hoàn toàn “ảo giác” có thể là bất khả thi. Ông nói: Tôi nghĩ nếu có thể, các phòng thí nghiệm về AI hẳn đã làm rồi.
Về phía OpenAI, Saachi Jain, quản lý nhóm đào tạo về an toàn AI cho biết, việc giảm thiểu sai sót và huấn luyện mô hình biết thừa nhận khi “không có câu trả lời” đã trở thành một mục tiêu trọng tâm. Trong các tài liệu kỹ thuật phát hành cùng GPT-5, công ty nhấn mạnh hai mục tiêu: huấn luyện mô hình tìm kiếm thông tin cập nhật hiệu quả hơn và giảm thiểu hiện tượng “ảo giác”. Jain cho biết, nỗ lực này đặc biệt tập trung vào việc giảm “ảo giác” trong các câu trả lời dài, có tính mở, bởi đây là tình huống phản ánh rõ nhất cách người dùng trải nghiệm Chat GPT trong thực tế.
Trong một bài kiểm tra đánh giá tài liệu mang tên Scholar QA-CS, GPT-5 “hoạt động tốt” khi được phép truy cập web, theo Akari Asai, nhà nghiên cứu AI tại Viện Trí tuệ Nhân tạo Allen (Seattle, Washington) và cũng là người thực hiện thử nghiệm này cho tạp chí Nature. Ở các câu hỏi mở về khoa học máy tính, GPT-5 đạt độ chính xác 55% (dựa trên mức độ các nhận định được hỗ trợ bằng trích dẫn), nhỉnh hơn một chút so với các chuyên gia con người là 54%. Tuy nhiên, nó vẫn kém hơn OpenScholar, hệ thống đánh giá tài liệu do Viện phát triển, với kết quả là 57%.
Tuy vậy, GPT-5 vẫn bộc lộ sự hạn chế rõ rệt khi không thể truy cập mạng, bà Asai cho biết. Khả năng đối chiếu chéo với các cơ sở dữ liệu học thuật là một tính năng chính của hầu hết các hệ thống tích hợp AI được thiết kế để hỗ trợ việc đánh giá tài liệu. Khi không truy cập Internet, GPT-5 bịa đặt hoặc làm sai lệch số lượng trích dẫn ít hơn khoảng một nửa so với GPT-4o, nhưng tỷ lệ trích dẫn sai vẫn ở mức cao là 39%, bà cho biết.
Trên bài kiểm tra tiêu chuẩn LongFact, vốn dùng để kiểm tra độ chính xác trong các câu trả lời dạng dài, OpenAI báo cáo rằng, GPT-5 chỉ tạo ra “ảo giác” trong 0,8% các khẳng định liên quan đến nhân vật hoặc địa danh khi được phép duyệt web. Con số này thấp hơn nhiều so với 5,1% của o3, một mô hình suy luận khác của OpenAI. Khi không có quyền truy cập Internet, hiệu suất của GPT-5 giảm xuống: tỷ lệ lỗi tăng lên 1,4%, so với 7,9% của o3. Cả hai mô hình đều thể hiện kết quả kém hơn so với GPT-4o (phiên bản không suy luận), vốn đạt tỷ lệ lỗi 1,1% khi ngoại tuyến.
Ở các bài đánh giá độc lập khác, chẳng hạn như Mô hình đánh giá hiện tượng “ảo giác” của Hughes do nền tảng AI Vectara tại Palo Alto (California) vận hành, vốn theo dõi tần suất một LLM đưa ra khẳng định sai khi tóm tắt tài liệu, các mô hình đối thủ như Gemini 2.0 của Google nhỉnh hơn GPT-5 đôi chút, mặc dù cả hai đều giữ tỷ lệ lỗi ở mức dưới 1,5%.
Học cách thừa nhận thất bại
OpenAI cũng báo cáo rằng, mô hình này trung thực hơn trong các câu trả lời so với các mô hình trước đây của công ty. Khi được giao một tác vụ lập trình không thể hoàn thành, chẳng hạn do thiếu quyền truy cập vào phần cứng cần thiết, GPT-5 chỉ “nhận vơ” đã hoàn thành trong 17% trường hợp, thấp hơn nhiều so với 47% của o3. Mặc dù, Jain không tiết lộ chi tiết về phương pháp huấn luyện, nhưng bà gợi ý rằng ở các giai đoạn sau, OpenAI đã tập trung “thưởng” cho mô hình khi nó đưa ra câu trả lời trung thực.
Theo OpenAI, giai đoạn huấn luyện này trước đây có thể đã vô tình làm tăng sự thiếu trung thực của mô hình. Các hệ thống AI có thể học cách trở nên “quá tự tin” và thậm chí “gian lận” khi được huấn luyện bằng một kỹ thuật phổ biến: khuyến khích chúng phản hồi theo cách làm hài lòng người đánh giá con người, bằng cách tỏ ra hữu ích.
Các nhà nghiên cứu đang tìm cách buộc các LLM tiết lộ mức độ tự tin của chúng về độ chính xác của một câu trả lời. Tuy nhiên, vẫn chưa rõ liệu các mô hình có thể đo lường chính xác xác suất thống kê này hay không. Theo bà Jain, những nỗ lực như vậy hiện là “một hướng nghiên cứu rất tích cực” tại OpenAI.
Theo ông Steyvers, các bài kiểm tra thực tế về cách con người tương tác với mô hình và ra quyết định dựa trên thông tin được cung cấp vẫn còn thiếu trong các đánh giá của OpenAI. Ông cho rằng, con người thường tin ngay vào kết quả đầu ra của AI, bất chấp các cảnh báo, bởi các mô hình ngôn ngữ lớn vốn được thiết kế để trả lời dài dòng và đầy tự tin – những đặc điểm dễ bị nhầm lẫn với sự am hiểu thực tế. Ngay cả tôi cũng từng bị nó thuyết phục, dù tôi hiểu rõ những thành kiến này, ông nói thêm.
Một số nhà nghiên cứu khác cho rằng, trách nhiệm cá nhân đóng vai trò quan trọng trong việc sử dụng các LLM. Bilal nhấn mạnh, luôn có một sự đánh đổi: giữa nguy cơ “ảo giác” và lợi ích tiết kiệm sức lao động to lớn mà các mô hình này mang lại khi được dùng đúng cách.
Bên cạnh đó, ông nhấn mạnh: Đây chính là thách thức trong việc xây dựng những dạng trực giác mới, phù hợp với thời đại AI./.
https%3A%2F%2Fvjst.vn%2Fai-dang-bia-dat-trich-dan-gioi-nghien-cuu-co-the-lam-gi-70675.html