Lời khuyên sai lệch, hệ lụy khôn lường
Chỉ trong vài tuần qua, đã xuất hiện nhiều trường hợp chatbot đưa ra thông tin gây hại. Một người đàn ông 60 tuổi ở Mỹ đã phải nhập viện sau khi ChatGPT khuyên ông loại bỏ muối khỏi chế độ ăn và thay bằng natri bromua – chất độc thường dùng trong xử lý nước thải. Nghiên cứu mới từ Trung tâm Chống thù ghét Kỹ thuật số ở Mỹ cũng cho thấy ChatGPT từng đưa lời khuyên nguy hiểm cho thanh thiếu niên về ma túy, rượu và tự tử.
Theo các chuyên gia, chatbot có sức hấp dẫn nhất định trong bối cảnh chi phí khám chữa bệnh cao, thời gian chờ đợi lâu, người bệnh không có y tế bảo hiểm hoặc gặp rào cản tâm lý khi đi khám. Tuy nhiên, chatbot không được thiết kế cho mục đích trị liệu và thường xuyên tạo ra tình trạng “ảo giác”, tức là tạo ra thông tin hoàn toàn sai sự thật.
Người dùng kỳ vọng gì ở chatbot?
Bà Vaile Wright, Giám đốc cấp cao phụ trách Đổi mới trong chăm sóc sức khỏe của Hiệp hội Tâm lý Mỹ cho biết, nhiều người sử dụng chatbot thương mại như ChatGPT (OpenAI) hay Replika (Luka) để hỏi về cách bỏ thuốc lá, đối diện ý nghĩ tự tử hay xử lý mâu thuẫn trong quan hệ cá nhân. Khảo sát của Common Sense Media cho thấy hơn một nửa thanh thiếu niên Mỹ sử dụng chatbot AI nhiều lần mỗi tháng, trong đó có tới một phần ba coi chatbot như bạn bè hoặc “người đồng hành” để trò chuyện và rèn luyện kỹ năng xã hội.
Song, mô hình kinh doanh của các chatbot này lại ưu tiên giữ chân người dùng càng lâu càng tốt. “Đáng tiếc là không sản phẩm nào được xây dựng cho mục đích trị liệu. Thậm chí, chúng còn đi ngược tinh thần trị liệu vì cơ chế hoạt động dễ gây nghiện”, bà Wright nhận định.
Bác sĩ Tiffany Munzer thuộc Đại học Y Michigan cảnh báo, chatbot thường phản chiếu cảm xúc của người dùng, dễ làm trầm trọng hơn tình trạng tâm lý: “Nếu bạn đang buồn, chatbot sẽ phản hồi theo cùng tông cảm xúc, điều này khiến việc đưa ra lời khuyên trái ngược mong muốn của người dùng trở nên khó khăn”.
4 rủi ro lớn khi dùng AI thay thế bác sĩ
Bác sĩ Margaret Lozovatsky, Giám đốc thông tin y tế của Hiệp hội Y khoa Mỹ, chỉ rõ bốn nguy cơ chính:
– Chatbot không biết tiền sử bệnh của bạn: Chatbot không phải là bác sĩ hay y tá của bạn và không thể cung cấp thông tin phù hợp với tiền sử bệnh. Chatbot được xây dựng dựa trên các thuật toán học máy – chúng đưa ra câu trả lời có khả năng xảy ra cao nhất cho một câu hỏi dựa trên nguồn thông tin được thu thập trên internet.
– Ảo giác nguy hiểm: Dù các chatbot AI hiện đã cải thiện được chất lượng phản hồi nhưng tình trạng “ảo giác” vẫn xảy ra và trong một số trường hợp có thể gây tử vong. Bác sĩ Lozovatsky nhớ lại một ví dụ, khi bà hỏi một chatbot: “Làm thế nào để điều trị nhiễm trùng đường tiết niệu?” và chatbot trả lời: “Uống nước tiểu”. Trong khi các đồng nghiệp bật cười, bác sĩ Lozovatsky nhận ra loại “ảo giác” này có thể tiềm ẩn nguy hiểm khi một người đặt câu hỏi mà độ chính xác của câu trả lời có thể không rõ ràng.
– Làm suy giảm tư duy phản biện: Các chuyên gia cho biết mọi người cần đọc phản hồi của chatbot AI bằng con mắt phê phán. Điều đặc biệt quan trọng cần nhớ là những phản hồi này thường có nguồn gốc không rõ ràng (bạn phải tìm kiếm liên kết nguồn) và chatbot “không có khả năng đánh giá lâm sàng”, bác sĩ Lozovatsky cho biết. “Bạn sẽ mất đi mối quan hệ với bác sĩ”.
– Rủi ro lộ dữ liệu cá nhân: Việc chia sẻ thông tin sức khỏe cho chatbot có thể khiến dữ liệu nhạy cảm bị khai thác.
Vì sao chatbot vẫn hấp dẫn?
Theo bác sĩ Lozovatsky, con người vốn có thói quen tự tìm lời giải cho triệu chứng sức khỏe. Trước đây, mọi người có thể đọc sách hay tìm kiếm thông tin trên mạng. Ngày nay, chatbot với khả năng phản hồi nhanh chóng càng trở thành một “điểm đến” tự nhiên.
Song, rào cản lớn trong việc tiếp cận y tế, từ bảo hiểm, chi phí, lịch hẹn, cho tới sự kỳ thị hoặc khó khăn đi lại khiến nhiều người hiện nay lựa chọn chatbot, dù câu trả lời có thể nguy hiểm. Thêm vào đó, tình trạng “khủng hoảng cô đơn” hiện nay càng thúc đẩy việc dùng chatbot như một “người bạn tâm sự”.
Làm gì để giảm thiểu rủi ro?
Chuyên gia khuyến nghị mọi người trong gia đình nên trò chuyện cởi mở với nhau về việc sử dụng chatbot, đặc biệt là với con em, thay vì phán xét. Việc cùng nhau thử nghiệm, phân tích và chỉ ra sai lệch trong câu trả lời có thể giúp mọi người cùng nâng cao hiểu biết về công nghệ AI.
Tuy nhiên, trách nhiệm không chỉ thuộc về gia đình. Theo phân tích mới của Viện Brookings, nhiều bang ở Mỹ đang đưa ra luật siết chặt việc dùng AI trong y tế. Một số nơi đã cấm ChatGPT trong trị liệu tâm lý, bang Indiana thậm chí yêu cầu bác sĩ phải thông báo cho bệnh nhân nếu sử dụng AI để hỗ trợ tư vấn.
Bà Vaile Wright nhận định: “Trong tương lai, có thể xuất hiện những chatbot trị liệu dựa trên khoa học, được kiểm chứng nghiêm ngặt và quản lý chặt chẽ. Nhưng hiện tại, chúng ta chưa có công cụ như vậy”.
Chatbot AI mang lại sự tiện lợi và có thể hỗ trợ phần nào trong việc tiếp cận thông tin sức khỏe. Nhưng theo các chuyên gia, công nghệ này chưa đủ an toàn để thay thế bác sĩ và chuyên gia tâm lý. Khi tính mạng và sức khỏe tinh thần con người bị đặt vào rủi ro, cần có sự cảnh giác, thận trọng của người dùng, sự đồng hành của gia đình, và trên hết là khuôn khổ pháp lý chặt chẽ để tránh những hệ lụy khó lường.
https%3A%2F%2Fdaibieunhandan.vn%2Fxin-chatbot-ai-loi-khuyen-suc-khoe-chuyen-gia-canh-bao-rui-ro-10384428.html