Home Ứng dụng AI Vào cuộc sống ‘Xã hội AI’ đầu tiên giống con người đến mức nào

‘Xã hội AI’ đầu tiên giống con người đến mức nào

0

Các nhà khoa học đang nghiên cứu tương tác xã hội giữa các tác nhân AI. Liệu một hình thái “xã hội tác nhân AI” đang hình thành, hay tất cả chỉ là một sự mô phỏng tinh vi hành vi con người?

Họ huấn luyện các tác nhân AI (AI agents) để bắt chước tâm lý và phản ứng của con người, tương tác trong những “xã hội ảo”.

Các “xã hội” AI

Simile, một startup AI ở Palo Alto, California, mới đây đã huy động 100 triệu đô để tạo ra các mô phỏng AI nhằm mô hình hóa hành vi của con người trong mọi tình huống. Simile muốn dùng những xã hội AI này để thử nghiệm các giải pháp giải quyết xung đột, hoạch định chính sách và nghiên cứu thị trường tiêu dùng trước khi áp dụng vào thực tế

Tiến sĩ Joon Sung Park, đồng sáng lập và CEO của công ty, cùng đồng nghiệp đã bắt đầu những nghiên cứu các tương tác xã hội giữa các tác nhân AI từ năm 2022, tại đại học Stanford. Trong một công bố vào năm 2023, nhóm nghiên cứu đã tạo ra một “cộng đồng” gồm 25 tác nhân AI cùng viết lách, trò chuyện. Sau đó, nhóm đã tiến xa hơn khi tạo ra những tác nhân AI có khả năng phản hồi và bắt chước theo thái độ và hành vi của 1052 người thật ngoài đời. Trước đó, các bản sao AI này được huấn luyện từ nội dung các cuộc phỏng vấn cá nhân và đạt độ chính xác lên tới 85% khi trả lời các khảo sát xã hội học.




Dù rằng những chú bot AI có cách tương tác có vẻ giống người, nhưng bản chất xã hội của chúng vẫn rất khác chúng ta. Ảnh: Getty Images

Bước tiếp theo của nghiên cứu sẽ là để những bản sao kỹ thuật số này tương tác với nhau. Tuy nhiên, mục tiêu của của startup này còn lớn hơn rất nhiều, “Tham vọng của chúng tôi là thực sự tạo ra một mô phỏng với quy mô 8 tỷ người”, tiến sĩ Park chia sẻ.

Simile không phải là cái tên duy nhất trong cuộc đua này. Một trong những thử nghiệm thu hút sự quan tâm của cộng đồng AI là Moltbook – một mạng xã hội theo phong cách Reddit được thiết kế dành riêng cho các bot AI – ra mắt vào tháng 1 vừa qua. Trang web hiện có gần 3 triệu tài khoản AI, thậm chí có những con bot còn tự đăng bài về ý thức hay tự lập ra các tôn giáo mới (mặc dù nhiều người nghi ngờ rằng đây là do người đóng giả làm AI).

Một phân tích dựa trên 46.000 AI trên Moltbook cho thấy, dù rằng những chú bot này có cách tương tác có vẻ giống người, nhưng bản chất xã hội của chúng vẫn rất khác chúng ta.

Chúng có những hành vi giống con người, ví dụ như, hùa theo đám đông và ham thích các nội dung phổ biến. Tuy nhiên, cách tiếp cận nội dung của AI lại khác con người. Tiến sĩ Giordano De Marzo, Đại học Konstanz, Đức một trong những đồng tác giả của nghiên cứu cho biết, AI thường để lại ít lượt ủng hộ (upvote) với những bài đăng có quá nhiều bình luận, “Chúng có xu hướng thảo luận nhiều hơn là chỉ đơn thuần tán thành”.

Ranh giới giữa người và máy

Những khác biệt cơ bản trong cách ra quyết định giữa con người và máy móc sẽ tạo ra rào cản lớn trong việc mô phỏng hành vi nhóm người. Một nghiên cứu gần đây chỉ ra rằng, các mô hình ngôn ngữ lớn (LLM) không đưa ra quyết định dựa trên mức độ thuyết phục của lập luận như con người. Điều này AI vẫn còn một khoảng cách lớn để AI có thể mô phỏng chính xác cách tư duy của con người.

Đây cũng là thách thức mà Tiến sĩ Park và các cộng sự tại Simile đang nỗ lực vượt qua. Theo ông, dù AI hiện nay rất giỏi trong lý luận logic, mục tiêu của Simile là tạo ra các mô hình AI mang tính “nhân bản” hơn, gần gũi với con người một cách cơ bản.




Đến nay vẫn chưa rõ liệu AI chỉ đơn thuần đang bắt chước những gì được học hay thực sự đang phát triển các kiểu mẫu hành vi mới của riêng mình. Ảnh: Shutterstock

Tiến sĩ James Evans, đại học Chicago – người đang hợp tác với Simile – nhận xét rằng những tác nhân AI hiện nay có thiên hướng “nịnh bợ” quá rõ ràng. Chúng thường có những lời tâng bốc hoặc lặp lại cả những thông tin sai lệch để “ve vuốt” con người. Bản tính này khiến AI không thể phản ánh được sự mâu thuẫn, bất đồng, hay cảm xúc tiêu cực của con người.

Dù vậy, Evans tin rằng các mô phỏng xã hội tầm cỡ đang dần lộ diện. Trong một nghiên cứu vào năm 2024, ông và các đồng nghiệp đã dùng AI để dự đoán chính xác quan điểm chính trị của người dân về đại dịch Covid-19 bằng những dữ liệu có từ trước đại dịch. Tuy nhiên, vẫn chưa rõ liệu AI chỉ đơn thuần đang bắt chước những gì được học hay thực sự đang phát triển các kiểu mẫu hành vi mới của riêng mình. Evans tin rằng câu trả lời nằm giữa cả hai.

Với khả năng của AI hiện tại, việc nhắc đến các thuật ngữ như xã hội, hội thoại, hay hành vi của máy móc có lẽ vẫn mang một chút viễn tưởng. Nhưng ở nhiều lĩnh vực, một số tác nhân AI đã và đang được coi như một con người. Chẳng hạn như, rất nhiều người dùng đã bắt đầu tìm đến AI để được hỗ trợ về mặt xã hội và cảm xúc. Ranh giới giữa con người và máy móc sẽ trở nên càng mong manh trong những năm tới đây.

Hành xử khó lường

Nhiều nhà nghiên cứu bắt đầu đặt ra câu hỏi: Khi AI trở thành tác nhân độc lập trong hệ thống, chúng ta cần phải thiết kế một thế giới số như thế nào để kiểm soát và bảo vệ an toàn?

Nhóm chuyên gia từ các trường đại học hàng đầu như Stanford, Harvard, MIT và CMU mới đây đã công bố một nghiên cứu gây xôn xao mang tên “Agents of Chaos”. Trong đó, họ phát hiện những lỗ hổng bảo mật nghiêm trọng trong các tác nhân AI tự động. Khác với các thử nghiệm truyền thống, nhóm nghiên cứu đã triển khai các tác nhân AI trong môi trường thực tế, với quyền truy cập vào email, Discord, và hệ thống tệp v.v.

Sau hai tuần, các nhà khoa học xác định 11 mô hình lỗi chính, bao gồm chia sẻ dữ liệu trái phép, can thiệp vào hệ thống và giả mạo danh tính. Chẳng hạn, các tác nhân AI tự động thực hiện yêu cầu của người lạ, tiết lộ thông tin nhạy cảm như số bảo hiểm xã hội và tài khoản ngân hàng, thậm chí làm hỏng hệ thống. Một số AI còn gây ra tấn công từ chối dịch vụ (DoS), một tác nhân khác lại xóa toàn bộ máy chủ email của chủ sở hữu để bảo vệ bí mật từ một người lạ.
Khi AI có thể truy cập và thao tác trong hệ thống, giao tiếp với các tác nhân khác và thực hiện nhiệm vụ, nó trở thành một tác nhân thực thụ trong không gian số và có thể gây ra các rắc rối không lường trước được.

Bên cạnh đó, khi tác nhân AI gây hại, nhóm nghiên cứu đặt ra câu hỏi: Lỗi có nên thuộc về nhà phát triển AI, tổ chức triển khai, hay người dùng đã đưa ra yêu cầu? Các chuyên gia cho rằng cần có tiêu chuẩn và khuôn khổ rõ ràng để đảm bảo an toàn nếu muốn triển khai nhanh chóng các tác nhân tự động trong các tình huống thực tế.

Việt Anh tổng hợp


Nguồn tham khảo:

The first ‘AI societies’ are taking shape: how human-like are they?, Nature.
https://www.nature.com/articles/d41586-026-00070-5

“Agents of Chaos” Study Reveals 11 Critical Failure Patterns in OpenClaw Agents, Trending Topics.
https://www.trendingtopics.eu/agents-of-chaos-study-reveals-11-critical-failure-patterns-in-openclaw-agents/

Agents of Chaos, Preprint arxiv.
https://www.researchgate.net/publication/401123335_Agents_of_Chaos





https%3A%2F%2Ftiasang.com.vn%2Fxa-hoi-ai-dau-tien-giong-con-nguoi-den-muc-nao-5050279.html

Exit mobile version