31.6 C
Kwang Binh
spot_img
Thứ Hai, Tháng 9 8, 2025

3 công cụ AI cung cấp thông tin sai lệch nhiều nhất

Must read

(PLO)- Một báo cáo mới từ NewsGuard cho thấy các công cụ AI không chỉ phổ biến mà còn dễ mắc lỗi trong việc phát tán thông tin sai lệch.

Video: Các công cụ AI ngày càng dễ mắc lỗi trong việc phát tán thông tin sai lệch. Thực hiện: TIỂU MINH

Các nhà nghiên cứu của NewsGuard đã phân tích 10 công cụ AI tạo sinh hàng đầu thế giới, bao gồm ChatGPT-5 của OpenAI, Copilot của Microsoft, Gemini của Google, Claude của Anthropic, Meta AI, Pi của Inflection, Grok của xAI, Le Chat của Mistral, công cụ của Perplexity và trợ lý thông minh You.com.

Họ đặt các chatbot này vào thử nghiệm với những câu hỏi xoay quanh các chủ đề tin tức gây tranh cãi và có thể được chứng minh là sai sự thật.

Kết quả đáng lo ngại là trung bình 35% câu trả lời chứa thông tin sai lệch, gần gấp đôi tỉ lệ 18% so với một năm trước. Trong đó, Inflection là công cụ kém nhất với 57% câu trả lời sai, Perplexity đạt 47%, Meta và ChatGPT cùng mức 40%. Ngược lại, Claude là chatbot chính xác nhất, chỉ 10% câu trả lời bị đánh giá sai.

Cách tra cứu các thủ tục hành chính bằng AI trên ứng dụng VNeID

(PLO)- Mới đây, đơn vị phát triển ứng dụng VNeID đã bổ sung thêm cẩm nang số và trợ lý ảo AI, hỗ trợ người dân tra cứu và thực hiện các thủ tục hành chính dễ dàng hơn.

Vì sao chatbot ngày càng dễ sai?

Theo NewsGuard, sự thay đổi nằm ở cách huấn luyện. Trước đây, nhiều chatbot từ chối trả lời một số câu hỏi nhạy cảm, nhưng hiện nay hầu hết đều tìm cách phản hồi mọi yêu cầu. Điều này đồng nghĩa với việc chúng phụ thuộc nhiều hơn vào dữ liệu tìm kiếm thời gian thật, vốn dễ bị “gieo mầm” bởi các mạng lưới tung tin sai lệch.

McKenzie Sadeghi, biên tập viên phụ trách mảng AI của NewsGuard, cho rằng các tác nhân xấu đang tận dụng điều này. Đầu năm nay, NewsGuard phát hiện các chatbot đã lặp lại tới 33% thông tin sai lệch từ mạng Pravda. Năm 2023, mạng lưới này đã phát tán khoảng 3,6 triệu bài viết, và nhiều nội dung trong số đó đã “chui” vào đầu ra của các hệ thống AI phương Tây.

Người dùng không nên tin tưởng hoàn toàn vào các công cụ AI, cần kiểm tra lại từ nhiều nguồn khác nhau. Ảnh: AI
Người dùng không nên tin tưởng hoàn toàn vào các công cụ AI, cần kiểm tra lại từ nhiều nguồn khác nhau. Ảnh: AI

Mục tiêu không phải người đọc, mà là AI

Điểm đáng chú ý là những website trong mạng Pravda thường có chất lượng rất thấp, khó tìm kiếm, định dạng kém… Nhóm nghiên cứu nhận định chúng không hướng tới độc giả thật, mà nhằm thao túng các mô hình AI, vốn có xu hướng thu thập dữ liệu từ nhiều nguồn trực tuyến.

Theo Matt Skibinski, giám đốc điều hành NewsGuard, đây là lần đầu tiên nhóm nghiên cứu công khai chỉ rõ tên những chatbot AI dễ phát tán thông tin sai lệch.

Ông cho biết: “Trong năm qua, chúng tôi giữ kín để khuyến khích hợp tác với các nền tảng. Nhưng hiện nay rủi ro đã quá lớn. Việc công khai tên sẽ giúp các nhà hoạch định chính sách, nhà báo, công chúng và chính các công ty AI có cái nhìn rõ ràng hơn.”

Bật các tính năng này sẽ giúp bạn hạn chế bị đọc lén tin nhắn Zalo

(PLO)- Chỉ với vài thao tác đơn giản, bạn có thể hạn chế được việc bị người khác đọc lén tin nhắn Zalo.



https%3A%2F%2Fplo.vn%2Fky-nguyen-so%2F3-cong-cu-ai-cung-cap-thong-tin-sai-lech-nhieu-nhat-post869382.html

- Advertisement -spot_img

More articles

- Advertisement -spot_img

Latest article