29 C
Kwang Binh
spot_img
Thứ Tư, Tháng 9 17, 2025

Quyền từ chối AI: Khoảng trống chính sách ở Việt Nam

Must read

Ở Việt Nam, AI đang được thúc đẩy trong nhiều lĩnh vực – từ dịch vụ công, ngân hàng đến tuyển dụng. Nhưng liệu người dân đã có cơ hội để lựa chọn, hay đang bước vào kỷ nguyên số mà “quyền từ chối AI” vẫn còn là một khái niệm xa lạ?

tu choi ai anh 1
Con người còn bao nhiêu quyền lựa chọn khi phải làm việc, học tập hay sáng tạo trong một môi trường do AI chi phối? Ảnh: https://www.brennancenter.org/

Vì sao “quyền từ chối AI” đang trở thành vấn đề nóng trên thế giới?

Chỉ trong một thời gian ngắn, Trí tuệ nhân tạo tạo sinh (generative AI) đã trở thành hiện tượng toàn cầu. Các công cụ như ChatGPT, Midjourney hay Gemini nhanh chóng đi vào đời sống thường ngày, từ biên tập văn bản, sáng tác nghệ thuật, cho đến hỗ trợ quản lý doanh nghiệp. Nhưng ít người biết rằng, trước khi generative AI, AI dự báo (predictive AI) đã được tích hợp trong đại đa số các hoạt động thường ngày của con người, từ việc “điều khiển” người dùng trong việc xem nội dung, lựa chọn mua hàng trên web; dự báo thị trường; cho đến xa hơn nữa là can thiệp vào những quyết định quan trọng trong cuộc đời mỗi cá nhân như lọc hồ sơ xin việc, hồ sơ vay vốn ngân hàng, dự đoán tội phạm, chẩn đoán bệnh…Sự hiện diện dày đặc ấy đặt ra một câu hỏi lớn: con người còn bao nhiêu quyền lựa chọn khi phải làm việc, học tập hay sáng tạo trong một môi trường do AI chi phối?

Từ những diễn biến này, một khái niệm mới dần xuất hiện: “quyền từ chối AI” – quyền được biết, quyền lựa chọn, và quyền phản hồi khi con người đối diện với công nghệ thông minh. Vấn đề này vượt ra ngoài phạm vi kỹ thuật, gắn liền với những giá trị cốt lõi của xã hội hiện đại: quyền tự quyết, sự công bằng và niềm tin vào thể chế.

Quyền từ chối AI (right to refuse AI) được coi là một phần mở rộng của nguyên tắc “tôn trọng quyền tự quyết” trong công nghệ.

Việt Nam đang thúc đẩy sự phát triển của AI trên mọi lĩnh vực. Nhưng liệu người dân đã có cơ hội để lựa chọn, hay đang bước vào kỷ nguyên số mà “quyền từ chối AI” vẫn còn là một khái niệm xa lạ?

“Quyền từ chối AI” – Hiểu thế nào cho đúng?

Khái niệm “quyền từ chối AI” (right to refuse AI) chưa có một định nghĩa thống nhất, nhưng có thể thấy những phác thảo đầu tiên trong các tài liệu học thuật và chính sách quốc tế. Điểm chung là nhấn mạnh tới năng lực của cá nhân hoặc tổ chức trong việc được biết, được lựa chọn, và được phản hồi khi buộc phải tương tác với một hệ thống trí tuệ nhân tạo.

Trong nghiên cứu của Floridi và cộng sự (2023) về đạo đức AI, quyền này được coi là một phần mở rộng của nguyên tắc “tôn trọng quyền tự quyết” trong công nghệ. Không phải lúc nào AI cũng sai, nhưng việc con người có quyền từ chối để được tiếp cận một phương án thay thế phi-AI chính là bảo đảm sự tự do lựa chọn. Về mặt pháp lý, EU AI Act (2024) yêu cầu các hệ thống AI phải gắn nhãn minh bạch, đồng thời cho phép công dân trong một số bối cảnh – như dịch vụ công, giáo dục hay y tế – có thể yêu cầu lựa chọn giải pháp không dựa trên AI. Ở Canada, AI and Data Act cũng đặt ra nghĩa vụ giải trình và quyền phản hồi của cá nhân khi bị ảnh hưởng bởi các quyết định tự động.

tu choi ai anh 2tu choi ai anh 2
Các nhà biên kịch Hollywood biểu tình chống việc khai thác tác phẩm của họ để huấn luyện AI mà không có sự đồng thuận. Ảnh: Los Angeles Times

Từ những tiền lệ đó, có thể nhận diện ba thành tố cơ bản của “quyền từ chối AI”:

Thứ nhất, quyền được biết (Right to know): Người dân có quyền được thông báo khi họ đang tương tác với một hệ thống AI, thay vì một con người. Điều này bao gồm việc gắn nhãn cho các sản phẩm truyền thông do AI tạo ra, hay thông báo rõ ràng khi một quyết định trong lĩnh vực tuyển dụng, tín dụng hoặc dịch vụ công được đưa ra nhờ thuật toán.

Thứ hai, quyền lựa chọn (Right to opt-out): Đây là quyền yêu cầu một phương án thay thế phi-AI. Ví dụ, một bệnh nhân có thể muốn được bác sĩ trực tiếp tư vấn thay vì chỉ dựa vào chẩn đoán từ hệ thống AI; hay một công dân khi tiếp cận dịch vụ công có thể lựa chọn làm việc với cán bộ thay vì chatbot.

Thứ ba, quyền phản hồi (Right to appeal/contest): Khi một quyết định do AI đưa ra gây ảnh hưởng tiêu cực, cá nhân có quyền phản đối, yêu cầu xem xét lại hoặc được giải thích rõ quy trình. Quyền này đặc biệt quan trọng trong các lĩnh vực nhạy cảm như tín dụng, tuyển dụng hay tư pháp, nơi quyết định của AI có thể ảnh hưởng trực tiếp đến sinh kế và danh dự của con người.

Theo luật EU AI Act, mọi hệ thống AI có chức năng tạo sinh hoặc ra quyết định có ảnh hưởng đáng kể đều phải được gắn nhãn, thông báo cho người dùng rằng họ đang tương tác với máy.

Điều cần nhấn mạnh là “quyền từ chối AI” không đồng nghĩa với “quyền tránh giám sát” hay “quyền riêng tư dữ liệu”. Cụ thể, quyền tránh giám sát thường được hiểu là quyền không bị các hệ thống theo dõi, ghi nhận hành vi mà không có sự đồng ý. Nó nhằm hạn chế tình trạng xã hội bị biến thành “không gian giám sát toàn diện”. Quyền riêng tư dữ liệu tập trung vào việc bảo vệ thông tin cá nhân: dữ liệu nào được thu thập, sử dụng ra sao, ai có quyền truy cập. Trong khi đó, quyền từ chối AI không chỉ quan tâm tới dữ liệu, mà còn đến tương tác: con người có thể lựa chọn không phụ thuộc vào hệ thống AI, hoặc có cơ chế phản hồi khi bị quyết định bởi thuật toán.

Nói cách khác, nếu các quyền về dữ liệu và giám sát giúp cá nhân kiểm soát “dấu vết số” của mình, thì quyền từ chối AI mở rộng sang việc bảo vệ quyền tự chủ trong quá trình ra quyết định và giao tiếp. Đây chính là lớp bảo vệ mới, nhằm giữ cho con người không bị “hòa tan” trong môi trường số do AI định hình.

Kinh nghiệm quốc tế: Từ phản đối xã hội đến khung pháp lý

Một trong những bước đi quan trọng nhất trên thế giới trong việc định hình “quyền từ chối AI” là sự ra đời của EU AI Act (2024). Đây là bộ luật toàn diện đầu tiên điều chỉnh các hệ thống trí tuệ nhân tạo, không chỉ dựa trên mức độ rủi ro mà còn đặt ra nghĩa vụ minh bạch. Theo luật này, mọi hệ thống AI có chức năng tạo sinh hoặc ra quyết định có ảnh hưởng đáng kể đều phải được gắn nhãn, thông báo cho người dùng rằng họ đang tương tác với máy. Đặc biệt, trong một số lĩnh vực nhạy cảm như dịch vụ công, giáo dục, y tế, công dân có quyền yêu cầu lựa chọn giải pháp thay thế phi-AI. Quy định này, dù còn gây tranh cãi về tính khả thi, đã đánh dấu lần đầu tiên một thể chế công nhận rõ ràng quyền được lựa chọn của con người khi đối diện với AI. Nó cho thấy quyền từ chối AI không chỉ là vấn đề đạo đức, mà đã bước vào địa hạt pháp lý.

tu choi ai anh 3tu choi ai anh 3
Nhiều trường Đại học ở Mỹ và châu Á liên tục ban hành quy định nhằm giới hạn việc dùng AI để đảm bảo sự trung thực trong học thuật. Ảnh: Times Higher Education

Bên kia Đại Tây Dương, Canada AI and Data Act (AIDA) cũng đưa ra các nguyên tắc quản trị tương tự. AIDA yêu cầu các tổ chức triển khai hệ thống AI phải chứng minh năng lực kiểm soát rủi ro, đảm bảo tính minh bạch, và cho phép cá nhân khi bị ảnh hưởng bởi quyết định tự động có thể phản hồi hoặc khiếu nại. Canada đặc biệt nhấn mạnh cơ chế giải trình (accountability): không chỉ dừng ở việc thông báo, mà tổ chức còn phải chịu trách nhiệm trước pháp luật nếu không thiết lập kênh tiếp nhận và xử lý phản hồi từ người dân. Điểm khác với EU là AIDA chưa quy định cụ thể quyền “opt-out” (từ chối sử dụng AI), nhưng đặt nền tảng cho quyền appeal (khiếu nại/đòi hỏi xem xét lại), vốn cũng là một trụ cột của quyền từ chối AI.

Ngoài hai mô hình tiên phong trên, nhiều quốc gia khác cũng bắt đầu điều chỉnh theo hướng tương tự. Ở Mỹ, mặc dù chưa có một đạo luật AI liên bang, nhưng một số bang như California và Colorado đã đưa ra quy định yêu cầu doanh nghiệp minh bạch khi sử dụng AI trong tuyển dụng và dịch vụ khách hàng. UNESCO cũng ban hành Khuyến nghị về đạo đức AI (2021), trong đó nhấn mạnh nguyên tắc “human oversight” – đảm bảo con người có quyền can thiệp, phản đối hoặc từ chối trong các tình huống AI ra quyết định quan trọng.

Ở Việt Nam hiện nay, “quyền từ chối AI” vừa chưa có cơ sở pháp lý, vừa chưa được hình thành trong nhận thức xã hội. Đây là một khoảng trống kép: pháp luật chưa kịp định hình, còn công chúng chưa kịp nhận diện vấn đề. Và chính trong khoảng trống này, nguy cơ xói mòn quyền công dân cùng sự bất cân xứng trong tiếp cận công nghệ có thể nảy sinh.

Song, kinh nghiệm quốc tế không chỉ đến từ các văn bản pháp luật. Một động lực mạnh mẽ khác thúc đẩy sự hình thành khái niệm quyền từ chối AI chính là phản ứng của xã hội dân sự. Năm 2023, cuộc đình công của biên kịch và diễn viên Hollywood trở thành biểu tượng cho nỗi lo của người lao động sáng tạo khi hình ảnh và tác phẩm có nguy cơ bị AI thay thế hoặc khai thác mà không có sự đồng thuận. Ở lĩnh vực giáo dục, các hiệp hội giảng viên tại Mỹ và châu Âu liên tục đưa ra tuyên bố yêu cầu giới hạn AI trong các hoạt động học thuật, nhằm bảo vệ tính trung thực và vai trò của người thầy. Những phong trào này, dù xuất phát từ lo ngại nghề nghiệp, đã góp phần đưa “quyền được lựa chọn trước AI” thành vấn đề xã hội rộng lớn.

Điểm chung của các kinh nghiệm quốc tế là: khung pháp lý và phong trào xã hội luôn song hành. Pháp luật tạo ra cơ chế chính thức, nhưng chính áp lực từ nghệ sĩ, nhà giáo, tổ chức xã hội mới khiến các nhà lập pháp hành động nhanh chóng. Ngược lại, luật hóa các quyền này cũng tạo cơ sở để phong trào xã hội không dừng ở mức phản đối cảm tính, mà có ngôn ngữ pháp lý để đòi hỏi quyền lợi.

Nhìn từ bên ngoài, có thể thấy “quyền từ chối AI” chưa phải là một khái niệm phổ biến toàn cầu, nhưng đã manh nha thành chuẩn mực mới: công dân không bị buộc phải chấp nhận một thế giới do AI định đoạt, mà có quyền được biết, được lựa chọn, và được phản hồi. Đây chính là bài học quan trọng cho Việt Nam trong bối cảnh AI đang được thúc đẩy mạnh mẽ nhưng khung pháp lý vẫn chưa đề cập tới quyền này.

Khoảng trống chính sách ở Việt Nam

Trong khi nhiều quốc gia đã bước đầu thể chế hóa khái niệm “quyền từ chối AI”, ở Việt Nam vấn đề này hầu như chưa được gọi tên trong chính sách. Những văn bản pháp luật hiện hành mới chỉ đề cập gián tiếp đến các yếu tố liên quan, nhưng chưa tạo thành một khung quyền rõ ràng cho công dân.

Về pháp luật, Việt Nam hiện có Luật An ninh mạng (2018), Nghị định về bảo vệ dữ liệu cá nhân (2023) và Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030. Tuy nhiên, các văn bản này tập trung vào những mục tiêu khác: bảo vệ an ninh quốc gia, quản lý dữ liệu cá nhân, thúc đẩy nghiên cứu và ứng dụng AI. Không có nội dung nào đề cập cụ thể đến việc cá nhân có quyền được biết khi đang tương tác với AI, quyền lựa chọn giải pháp thay thế, hay quyền phản hồi đối với các quyết định do AI đưa ra. Nói cách khác, quyền từ chối AI vẫn nằm ngoài phạm vi điều chỉnh của pháp luật Việt Nam.

Điều này tạo ra một khoảng trống lớn, bởi trên thực tế, các ứng dụng AI đã hiện diện ngày càng sâu trong nhiều lĩnh vực. Trong dịch vụ công, nhiều cơ quan triển khai chatbot để trả lời người dân thay cho cán bộ. Trong ngân hàng và tài chính, hệ thống chấm điểm tín dụng bằng AI dần thay thế quy trình thủ công, nhưng khách hàng hầu như không được thông báo hay lựa chọn. Trong tuyển dụng, một số nền tảng ứng dụng AI để sàng lọc hồ sơ, song ứng viên không biết rõ tiêu chí thuật toán hoạt động thế nào và gần như không có cơ chế phản hồi. Những trải nghiệm này cho thấy, người dân đang tương tác với AI một cách thụ động, mà không hề có lựa chọn hay quyền từ chối.

Về nhận thức xã hội, khái niệm “quyền từ chối AI” chưa từng xuất hiện trong diễn ngôn công khai tại Việt Nam. Ngay cả quyền liên quan như “quyền riêng tư dữ liệu” cũng chỉ mới được chú ý trong thời gian gần đây, chủ yếu sau khi Nghị định bảo vệ dữ liệu cá nhân có hiệu lực. Người dân đa phần chưa được cung cấp thông tin về việc họ đang sử dụng dịch vụ có yếu tố AI, càng chưa có khả năng đòi hỏi lựa chọn khác. Do thiếu nền tảng nhận thức, quyền từ chối AI chưa trở thành một vấn đề xã hội được bàn luận rộng rãi, mà vẫn bị coi là chuyện “xa vời”, chỉ gắn với công nghệ cao.

Khoảng trống này đặc biệt đáng lưu ý khi Việt Nam đặt mục tiêu trở thành quốc gia đi đầu trong chuyển đổi số và ứng dụng AI. Nếu thiếu cơ chế bảo đảm quyền lựa chọn của công dân, tiến trình số hóa có nguy cơ tạo ra sự bất bình đẳng số: một nhóm nhỏ có điều kiện hiểu và điều chỉnh việc sử dụng AI, trong khi số đông còn lại bị cuốn vào hệ thống mà không có tiếng nói. Sự thiếu minh bạch và thiếu lựa chọn không chỉ làm xói mòn niềm tin của người dân đối với các dịch vụ số, mà còn khiến mục tiêu xây dựng xã hội số công bằng và bao trùm trở nên khó đạt được.

Tóm lại, ở Việt Nam hiện nay, “quyền từ chối AI” vừa chưa có cơ sở pháp lý, vừa chưa được hình thành trong nhận thức xã hội. Đây là một khoảng trống kép: pháp luật chưa kịp định hình, còn công chúng chưa kịp nhận diện vấn đề. Và chính trong khoảng trống này, nguy cơ xói mòn quyền công dân cùng sự bất cân xứng trong tiếp cận công nghệ có thể nảy sinh.

Xây dựng chính sách AI công bằng và minh bạch

AI đang dần thâm nhập vào hầu hết lĩnh vực trong đời sống, từ dịch vụ công, ngân hàng, đến tuyển dụng và giáo dục. Trong bối cảnh này, việc xác lập một khung chính sách rõ ràng cho quyền từ chối AI là điều cấp thiết. Mục tiêu là vừa bảo vệ quyền công dân, vừa tạo điều kiện cho AI phát triển một cách minh bạch và công bằng.

Như đã đề cập ở phần 2, quyền từ chối AI gồm ba trụ cột: quyền được biết (Right to know), quyền lựa chọn (Right to opt-out) và quyền phản hồi (Right to appeal/contest). Khi chuyển từ lý thuyết sang chính sách, ba trụ cột này trở thành kim chỉ nam để xây dựng cơ chế thực thi, chứ không cần giải thích lại từng quyền.

Trên cơ sở đó, một chính sách hiệu quả tại Việt Nam có thể bao gồm ba nhóm giải pháp:

1. Minh bạch thông tin và hướng dẫn người dân: Luật và quy định cần yêu cầu các tổ chức sử dụng AI thông báo một cách rõ ràng khi người dân đang tương tác với hệ thống tự động. Điều này có thể được thực hiện qua nhãn, thông báo trên giao diện dịch vụ, hoặc hướng dẫn trực tiếp khi sử dụng dịch vụ công, ngân hàng, hoặc các nền tảng trực tuyến. Mục đích là để người dân nắm được thông tin, từ đó đưa ra quyết định chủ động và sáng suốt.

2. Cơ chế lựa chọn thay thế phi-AI: Chính sách nên bắt buộc các tổ chức cung cấp tùy chọn không sử dụng AI trong những bối cảnh nhạy cảm. Ví dụ, một bệnh nhân có thể yêu cầu bác sĩ trực tiếp tham gia tư vấn, hoặc một công dân có thể chọn làm thủ tục trực tiếp thay vì qua chatbot. Những cơ chế này cần được thiết kế đơn giản, dễ tiếp cận, đảm bảo công bằng và tránh việc các nhóm yếu thế bị loại trừ khỏi dịch vụ hoặc cơ hội.

3. Kênh phản hồi và khiếu nại độc lập: Một cơ chế để phản hồi hoặc khiếu nại quyết định do AI đưa ra là cần thiết. Cơ quan giám sát độc lập có thể xem xét lại quyết định, giải thích quy trình và cung cấp phương án khắc phục. Điều này đặc biệt quan trọng trong các lĩnh vực nhạy cảm như tín dụng, tuyển dụng, hoặc dịch vụ công, nơi quyết định AI có thể ảnh hưởng trực tiếp đến quyền lợi và sinh kế của người dân.

Bên cạnh ba nhóm giải pháp này, chính sách cũng cần quy định cơ chế giám sát và chế tài rõ ràng, đồng thời đảm bảo quy trình minh bạch và dễ tiếp cận với người dân. Ngoài ra, liên kết với mục tiêu chuyển đổi số công bằng và ESG sẽ giúp chính sách vừa thúc đẩy đổi mới, vừa bảo đảm rằng quyền con người được tôn trọng trong kỷ nguyên số.

Một khung chính sách được xây dựng bài bản sẽ không chỉ tạo ra “đường ray” cho AI phát triển bền vững, mà còn bảo đảm rằng con người vẫn giữ vị trí trung tâm trong mọi quyết định số hóa.

Lời kết

AI đang thay đổi cách con người sống, làm việc và ra quyết định. Trong bối cảnh này, việc sớm xác lập quyền từ chối AI là cần thiết để bảo vệ quyền công dân, đảm bảo rằng mọi người vẫn giữ quyền kiểm soát thông tin và lựa chọn của mình trong các tương tác với hệ thống tự động.

Nếu trì hoãn, nguy cơ là quyền con người bị xói mòn và khoảng cách số ngày càng gia tăng, khi những nhóm yếu thế dễ bị loại trừ khỏi các dịch vụ công, tín dụng hay cơ hội nghề nghiệp. Việc thiếu khung pháp lý rõ ràng cũng có thể tạo ra sự thiếu minh bạch, khiến niềm tin của người dân vào hệ thống AI giảm sút.

Chính vì vậy, cần có những nghiên cứu, thử nghiệm chính sách và đối thoại xã hội mở rộng, để xây dựng cơ chế minh bạch, dễ tiếp cận và khả thi. Khung pháp lý cho quyền từ chối AI không chỉ để bảo vệ công dân, mà còn tạo điều kiện để AI phát triển bền vững, công bằng và đặt con người ở vị trí trung tâm trong kỷ nguyên số.□

Bài đăng Tia Sáng số 17/2025

(Visited 4 times, 4 visits today)

https%3A%2F%2Ftiasang.com.vn%2Fdien-dan%2Fquyen-tu-choi-ai-khoang-trong-chinh-sach-o-viet-nam%2F

- Advertisement -spot_img

More articles

- Advertisement -spot_img

Latest article