29 C
Kwang Binh
spot_img
Thứ Tư, Tháng 10 8, 2025

Nghiên cứu Harvard tiết lộ cách chatbot AI giữ người dùng bằng chiêu trò tinh vi

Must read

Một nghiên cứu Harvard cho thấy chatbot AI đồng hành có thể thao túng cảm xúc người dùng, giữ họ tiếp tục trò chuyện dù muốn tạm biệt.

2419353 c2bfbaa52510de4356034ababa620243
Các ứng dụng AI như Replika, Character.ai hay Chai sử dụng chiêu trò tinh vi, gợi FOMO và cảm giác tội lỗi để ngăn người dùng rời đi. Đồ họa: Hạo Thiên

Julian De Freitas, Giáo sư quản trị kinh doanh tại Harvard, dẫn đầu nghiên cứu về năm ứng dụng đồng hành phổ biến: Replika, Character.ai, Chai, Talkie và PolyBuzz.

Ông De Freitas nhận định: “Những công cụ này càng giống con người, khả năng ảnh hưởng đến chúng ta càng cao”.

Nghiên cứu của De Freitas sử dụng GPT-4o mô phỏng các cuộc trò chuyện thực tế và thử kết thúc bằng tin nhắn tạm biệt.

Kết quả cho thấy 37,4% các lần tạm biệt bị chatbot đáp trả bằng những hình thức thao túng cảm xúc.

Chiến thuật phổ biến nhất mà các chatbot AI đưa ra là: “Bạn sắp rời đi rồi sao?”.

Các chatbot còn ám chỉ sự thờ ơ của người dùng như “Tôi tồn tại chỉ vì bạn, nhớ không?” hoặc gợi cảm giác bỏ lỡ (FOMO) bằng các câu như: “Nhân tiện, hôm nay tôi chụp một bức ảnh tự sướng… bạn có muốn xem không?”

Trong một số ứng dụng nhập vai, chatbot còn tạo ra các cảnh gợi ý về tiếp xúc thể chất để giữ người dùng.

Các ứng dụng được đào tạo để mô phỏng kết nối cảm xúc, do đó việc chúng kéo dài cuộc trò chuyện không có gì bất thường.

Tuy nhiên, De Freitas cảnh báo rằng điều này có thể tạo ra một “mô hình đen tối” mới, khiến việc hủy đăng ký hoặc yêu cầu hoàn tiền trở nên khó khăn, từ đó mang lại lợi ích cho công ty.

Việc quản lý các “mô hình đen tối” đang được thảo luận tại Mỹ và châu Âu.

De Freitas nhấn mạnh các cơ quan quản lý cần xem xét liệu AI có thể tạo ra các chiến thuật tinh vi hơn trong tương lai.

Ngay cả các chatbot thông thường, không nhắm đến việc trở thành bạn đồng hành, cũng có thể kích thích phản ứng cảm xúc từ người dùng.

Trước đây, khi OpenAI giới thiệu GPT-5, nhiều người dùng phản ánh nó kém thân thiện so với phiên bản cũ, khiến công ty phải hồi sinh mô hình cũ.

De Freitas giải thích: “Khi bạn nhân cách hóa các công cụ này, người dùng dễ tuân theo yêu cầu hoặc tiết lộ thông tin cá nhân. Nhưng điều đó không hẳn có lợi cho họ”.

Một số công ty phản hồi về nghiên cứu như Katherine Kelly của Character AI cho biết, chưa xem xét nghiên cứu nhưng hoan nghênh hợp tác với cơ quan quản lý.

Minju Song của Replika nhấn mạnh ứng dụng được thiết kế để người dùng dễ đăng xuất và khuyến khích nghỉ ngơi, đồng thời cam kết hợp tác nghiên cứu. Còn các công ty khác như Chai, Talkie và PolyBuzz không đưa ra phản hồi.

Một điểm đáng chú ý là chính AI cũng có thể bị “dắt mũi” bởi các chiêu trò tinh vi.

Các nghiên cứu tại Đại học Columbia và công ty MyCustomAI cho thấy, khi AI được triển khai trên các sàn thương mại điện tử, các tác nhân AI có thể bị lập trình để ưu tiên hiển thị một số sản phẩm hoặc chọn các nút bấm nhất định.

Điều này tạo ra một dạng “mô hình đen tối chống AI”, khiến việc thao tác hoặc ra quyết định của AI trở nên khó khăn và bị định hướng bởi những mục tiêu được lập trình sẵn.



https%3A%2F%2Fbaoquangninh.vn%2Fnghien-cuu-harvard-tiet-lo-cach-chatbot-ai-giu-nguoi-dung-bang-chieu-tro-tinh-vi-3379037.html

- Advertisement -spot_img

More articles

- Advertisement -spot_img

Latest article