26.9 C
Kwang Binh
spot_img
Thứ Sáu, Tháng 5 9, 2025

Ngành AI đang đối mặt với nghịch lý lớn: Càng thông minh, càng hay… bịa, và nhiều người Việt đã lãnh đủ vì quá tin AI

Must read

Theo các nghiên cứu nội bộ và độc lập, tỷ lệ “ảo giác”, tức hiện tượng AI bịa ra thông tin sai lệch, đang tăng lên đáng kể ở các thế hệ chatbot mới.

Trong khi các hệ thống Trí tuệ nhân tạo đang ngày càng giỏi hơn trong việc giải toán và viết mã, thì một nghịch lý mới lại đang khiến giới công nghệ đau đầu: các chatbot AI càng “suy luận” tốt thì càng hay… bịa chuyện.

Một ví dụ điển hình vừa xảy ra với Cursor, một công cụ hỗ trợ lập trình đang nổi. Tháng trước, một chatbot AI của hãng bất ngờ thông báo đến người dùng rằng họ sẽ không còn được sử dụng phần mềm trên nhiều máy tính khác nhau. Thông tin này hoàn toàn không đúng, nhưng nó đã khiến nhiều khách hàng hoang mang, hủy đăng ký dịch vụ, và chỉ được dập tắt khi CEO Michael Truell phải đích thân lên tiếng đính chính trên Reddit: “Chúng tôi không có chính sách như vậy. Đây là phản hồi sai từ chatbot AI tuyến đầu.”

Sự cố này không phải cá biệt. Trên thực tế, theo các nghiên cứu nội bộ và độc lập, tỷ lệ “ảo giác”, tức hiện tượng AI bịa ra thông tin sai lệch, đang tăng lên đáng kể ở các thế hệ chatbot mới, đặc biệt là những mô hình “reasoning” chuyên xử lý các tác vụ suy luận đa bước như GPT-4 Turbo (o3) của OpenAI hay R1 của DeepSeek.

2349277 894b52862f471f8a310f8a774027676a

Giỏi toán, kém kiểm chứng

Khác với các chatbot cũ vốn mắc lỗi đơn giản, những hệ thống AI mới ngày nay có thể giải bài toán phức tạp, viết code dài, và “trình bày” các bước suy nghĩ như con người. Nhưng đó cũng chính là điểm yếu: càng phân tích nhiều bước, càng dễ tạo ra sai sót giữa chừng, và hệ quả là thông tin sai bị tích lũy theo từng bước một.

Trong một bài kiểm tra nội bộ của OpenAI có tên PersonQA, vốn yêu cầu AI trả lời câu hỏi về người nổi tiếng, hệ thống GPT-4 Turbo (o3) đưa ra thông tin sai lệch tới 33% số lần, gấp đôi so với phiên bản trước đó. Với phiên bản o4-mini, tỷ lệ này còn cao hơn, lên tới 48%.

Tình trạng trở nên đáng lo hơn khi áp dụng với các câu hỏi phổ thông. Trong thử nghiệm SimpleQA, o3 bịa đáp án tới 51% số lần, còn o4-mini gây sốc với mức “hallucination” 79% tức gần như 4/5 câu trả lời đều có yếu tố sai lệch.

Nguyễn Hoàng Minh, sinh viên năm cuối ngành Luật tại Đại học Kinh tế – Luật TP.HCM, từng dùng ChatGPT để hỗ trợ viết báo cáo nghiên cứu về quyền sở hữu trí tuệ. Trong phần trích dẫn, chatbot đã viện dẫn một điều khoản không hề tồn tại trong bất kỳ hiệp định nào của các tổ chức quốc tế như WIPO. Minh chỉ phát hiện ra khi bị giảng viên phản hồi rằng phần trích dẫn “không có căn cứ pháp lý”, và thừa nhận: “Nếu không kiểm tra lại, tôi đã nộp bản báo cáo với một lỗi rất nghiêm trọng.”

Tương tự, Lê Thị Hải Yến, nghiên cứu sinh ngành Dược tại TP.HCM, cho biết từng nhờ AI tóm tắt các bài báo y khoa để chuẩn bị thuyết trình. Một trong các đoạn tóm tắt trích dẫn nghiên cứu từ tạp chí NEJM, nhưng khi kiểm tra lại, bài báo đó hoàn toàn không tồn tại. “Nó… tưởng tượng ra cả bài báo. Nếu tôi tin vào đoạn đó, rất có thể sẽ bị xem là cố tình ngụy tạo dữ liệu,” Yến nói.

Vì sao càng huấn luyện càng bịa?

Theo các chuyên gia, việc đào tạo chatbot bằng dữ liệu khổng lồ từ internet không còn đủ để cải thiện chất lượng. OpenAI, Google và nhiều hãng khác giờ chuyển sang mô hình huấn luyện bằng reinforcement learning, tức để AI “thử sai” rồi học từ phản hồi. Phương pháp này cải thiện rõ ở các bài toán logic, nhưng lại không giúp ích mấy trong việc kiểm soát tính xác thực thông tin.

Laura Perez-Beltrachini, nhà nghiên cứu tại Đại học Edinburgh, cho biết: “Các mô hình mới có xu hướng học tốt một nhóm nhiệm vụ nhưng đồng thời lại ‘quên’ dần các tác vụ khác. Khả năng suy luận tăng lên nhưng độ đáng tin lại giảm.”

Một vấn đề khác là những chatbot này giờ thường hiển thị cả chuỗi “bước suy nghĩ” ra cho người dùng thấy. Trớ trêu thay, theo các nhà nghiên cứu tại Anthropic, những gì chatbot nói rằng nó đang nghĩ thực ra… không phải là cách nó thật sự vận hành. Người dùng đang bị thuyết phục bởi chuỗi lý luận hợp lý trên bề mặt, dù kết luận lại sai hoàn toàn.

Các công ty như Vectara đang theo dõi sát hiện tượng này. Họ thử yêu cầu các chatbot tóm tắt các bài báo cụ thể – một nhiệm vụ đơn giản – nhưng vẫn thấy tỷ lệ bịa thông tin dao động từ 3% đến 27%, tùy vào mô hình và phiên bản. Riêng hệ reasoning R1 của DeepSeek có tỷ lệ sai đến 14,3%, trong khi GPT-4 Turbo (o3) đạt 6,8%.

Pratik Verma, CEO của công ty Okahu, nhận định: “Chúng ta đang mất quá nhiều thời gian chỉ để xác minh chatbot có đúng hay không. Nếu không xử lý triệt để vấn đề này, giá trị thật sự của AI là tiết kiệm công sức sẽ biến mất.”



https%3A%2F%2Fbaoquangninh.vn%2Fnganh-ai-dang-doi-mat-voi-nghich-ly-lon-cang-thong-minh-cang-hay-bia-va-nhieu-nguoi-viet-da-lanh-du-3357033.html

- Advertisement -spot_img

More articles

- Advertisement -spot_img

Latest article