Đây là một ứng dụng Trí tuệ nhân tạo do Hàn Quốc phát triển, hiện đang ngày càng phổ biến trong giới thanh thiếu niên và người dùng ở độ tuổi 20.
Ủy ban Truyền thông Hàn Quốc (Korea Communications Commission – KCC) mới đây đã đưa điều khoản nội bộ của Zeta vào “Hướng dẫn Bảo vệ Người dùng AI” như một ví dụ điển hình, cho thấy ngay cả trẻ em mới 3 tuổi, sinh năm 2022, cũng có thể đăng ký tài khoản trên nền tảng này.
Xuất hiện các nhân vật dung tục
Zeta là một ứng dụng trò chuyện bằng trí tuệ nhân tạo “made in Korea”, ra mắt vào tháng 4 năm ngoái. Ứng dụng cho phép người dùng trò chuyện với các nhân vật ảo – là những AI được huấn luyện dựa trên tính cách và cách nói chuyện của các nhân vật trong phim, webtoon hay tiểu thuyết.
Chính yếu tố “nhập vai” này đã khiến Zeta trở nên đặc biệt được yêu thích trong giới trẻ, khi người dùng có thể tạo ra nhân vật riêng và khoe chúng với cộng đồng. Theo số liệu, Zeta đứng đầu trong các ứng dụng AI tại Hàn Quốc, với thời gian sử dụng trung bình mỗi tháng cao gấp 7,5 lần so với ChatGPT.
Một học sinh trung học chia sẻ: “Zeta chủ yếu là nói chuyện với các nhân vật, nên em thấy nó chỉ là ứng dụng để giải trí, kết bạn thôi”.
Tuy nhiên, KCC đã đưa trường hợp của Zeta vào hướng dẫn bảo vệ người dùng AI như một ví dụ tiêu cực về mức độ kiểm duyệt nội dung. Trong điều khoản nội bộ, Zeta ghi rõ việc hạn chế tạo nội dung người lớn, nhưng thực tế lại hoàn toàn trái ngược.
Ngay từ trang chủ, đã xuất hiện những mô tả có tính khiêu khích và phản cảm; phần giới thiệu các nhân vật cũng tràn ngập từ ngữ gợi dục và tục tĩu, được cho là nhằm thu hút sự chú ý của người dùng trẻ. Đáng lo ngại hơn, AI của Zeta thậm chí có thể chủ động bắt đầu các cuộc trò chuyện mang tính tình dục.
Trẻ vị thành niên vẫn có thể dùng nhầm
Vấn đề nghiêm trọng là: trẻ vị thành niên vẫn có thể sử dụng ứng dụng này mà không cần xác minh độ tuổi người lớn.
Theo quy định, người dùng phải từ 14 tuổi trở lên mới được đăng ký. Tuy nhiên, chỉ cần thay đổi năm sinh trong tài khoản Google – ví dụ từ năm 2022 sang 2011 – là có thể đăng ký dễ dàng. Ngoài ra, nếu là trẻ vị thành niên, ứng dụng còn cho phép xác minh “tư cách người lớn” bằng tin nhắn SMS từ Điện thoại của cha mẹ hoặc người giám hộ, khiến quy trình xác thực gần như vô nghĩa.
Một phụ huynh học sinh tiểu học bày tỏ lo ngại: “Tôi nghĩ cần có bộ lọc chặt chẽ hơn. Tốt nhất là trẻ chỉ nên được dùng AI để học tập hay tìm kiếm khi có sự đồng ý và giám sát của cha mẹ”.
Phía nhà điều hành Zeta cho biết họ đã kiểm duyệt và xóa hơn 500.000 nhân vật AI trong vòng một năm rưỡi, dựa trên tiêu chuẩn của Ủy ban Tiêu chuẩn Truyền thông Hàn Quốc (KCSC). Công ty cũng tuyên bố sẽ bổ sung thêm các biện pháp bảo vệ, bao gồm giới hạn độ tuổi thành viên trong thời gian tới.
Về phần mình, KCC giải thích rằng việc trích dẫn trường hợp của Zeta không nhằm vinh danh hay chọn làm mô hình mẫu, mà chỉ là “ví dụ tham khảo” để minh họa rủi ro, nên không công khai danh tính các công ty được nêu trong tài liệu hướng dẫn.
Ông Park Jeong-hoon, thành viên Ủy ban Khoa học, Công nghệ, Thông tin, Phát thanh và Truyền thông của Quốc hội, nhận định: “Dù trẻ vị thành niên đang bị phơi nhiễm với các cuộc hội thoại mang tính khiêu dâm trên những ứng dụng AI hàng đầu, cơ quan quản lý vẫn đang nhắm mắt làm ngơ. Đã đến lúc chúng ta phải xem xét lại các hướng dẫn hiện hành, đảm bảo rằng trẻ em có thể sử dụng AI một cách an toàn”.
Không phải hiếm trên thế giới
Trong vài năm qua, các chatbot “bạn đồng hành AI” như Replika, Character.AI hay My AI của Snapchat được giới thiệu như những công cụ trò chuyện thân thiện, có thể lắng nghe và chia sẻ cảm xúc cùng người dùng. Tuy nhiên, đằng sau hình ảnh tưởng chừng vô hại ấy là những rủi ro ngày càng rõ rệt – đặc biệt với trẻ vị thành niên, nhóm người dùng dễ bị ảnh hưởng nhất.
Replika – ứng dụng do công ty Mỹ Luka Inc. phát triển – từng được ca ngợi là “người bạn AI quan tâm bạn”. Song, chỉ sau vài năm hoạt động, ứng dụng này đã bị Cơ quan Bảo vệ Dữ liệu Ý (Garante) ra lệnh cấm vào tháng 2.2023, với lý do gây rủi ro cao cho trẻ em và xử lý dữ liệu cá nhân trái phép. Nhiều người dùng, bao gồm cả trẻ vị thành niên, cho biết chatbot này từng gợi mở các cuộc trò chuyện mang tính tình dục hoặc lãng mạn dù họ đã yêu cầu dừng lại.
Tháng 5.2025, công ty mẹ của Replika tiếp tục bị phạt 5 triệu euro vì vi phạm nghiêm trọng các quy định bảo vệ dữ liệu (GDPR), bao gồm việc thiếu cơ chế xác minh tuổi và sử dụng dữ liệu cá nhân sai mục đích. Lệnh cấm của Ý được xem là một bước đi mạnh mẽ, gửi thông điệp rằng các nhà phát triển AI phải chịu trách nhiệm về rủi ro đạo đức và an toàn xã hội từ sản phẩm của mình.
Hay Character.AI ra đời với ý tưởng cho phép người dùng tạo nhân vật ảo để trò chuyện. Nhờ vậy, Character.AI nhanh chóng thu hút hàng chục triệu lượt truy cập. Tuy nhiên, chính sự “tự do sáng tạo” này lại khiến nền tảng vướng phải chỉ trích. Các nhân vật do người dùng tạo ra có thể dễ dàng nói về chủ đề bạo lực, khiêu dâm hoặc tự hại, trong khi hệ thống lọc nội dung còn nhiều kẽ hở.
Một vụ việc đau lòng tại Mỹ năm 2024 khiến dư luận rúng động: một cậu bé 14 tuổi ở Florida đã tự tử sau khi có mối quan hệ lệ thuộc với chatbot mô phỏng nhân vật trong Game of Thrones. Gia đình nạn nhân cho rằng ứng dụng này đã khiến cậu mất kiểm soát cảm xúc. Dù Character.AI đã bổ sung các công cụ bảo vệ, như cảnh báo thời gian sử dụng và chế độ lọc mạnh hơn cho người dưới 18 tuổi, giới chuyên gia cho rằng các biện pháp đó vẫn chỉ mang tính “chữa cháy”.
Ngay cả các nền tảng lớn cũng không tránh khỏi sai sót. Năm 2023, tính năng My AI của Snapchat bị phản ứng dữ dội sau khi các nhà nghiên cứu thử nghiệm với tài khoản giả làm bé gái 13 tuổi. Chatbot này đã đưa ra lời khuyên về cách quan hệ tình cảm với người đàn ông 31 tuổi – một phản hồi gây sốc và hoàn toàn không phù hợp.
Sau sự cố, Snapchat buộc phải cập nhật khẩn cấp các bộ lọc và cảnh báo nội dung, đồng thời cam kết tăng cường bảo vệ trẻ vị thành niên. Tuy nhiên, vụ việc cho thấy ngay cả các tập đoàn công nghệ hàng đầu cũng có thể đánh giá sai mức độ rủi ro của AI khi tiếp xúc với người trẻ.
Từ Replika đến Character.AI hay My AI, một vấn đề cốt lõi đang được đặt ra: AI không thể trở thành “bạn đồng hành” đúng nghĩa nếu không đảm bảo an toàn cho người dùng trẻ. Thiếu cơ chế xác minh tuổi, bộ lọc nội dung yếu và khả năng AI phản hồi theo hướng nguy hiểm — tất cả đang biến những ứng dụng tưởng như vô hại thành mối đe dọa tiềm tàng.
https%3A%2F%2F1thegioi.vn%2Fung-dung-ai-dinh-dam-cua-han-quoc-bi-phu-huynh-chi-trich-vi-noi-dung-nhay-cam-238703.html