Lời phát biểu này của ông Darío Gil (Phó Chủ tịch cấp cao cũng là Giám đốc Nghiên cứu của IBM Darío Gil) ở Hội nghị ‘Rome Call for AI Ethics’ (tại Hiroshima năm 2025) đã được các đại biểu của Hội nghị này đặc biệt tán thưởng[1].
Nhân loại cần phải quản lý AI bằng nhiều cách khác nhau, nhất là bằng những định chế lề luật sáng suốt từ các quốc gia.
Trong chiều hướng quan tâm đến pháp lý, khi tọa đàm vào chiều ngày 10-12-2025 tại Hội nghị Bismeet 2025 ở Hong Kong, Giáo sư Denis Chang đã có bài chia sẻ về “Các khía cạnh pháp lý và các chính sách về AI: Cách thức AI ảnh hưởng trên quyền thần kinh và các quyền khác, cùng với việc bảo vệ những người dễ bị tổn thương”. Dưới đây là ghi nhận của Linh mục Giuse Vi Hữu, tham dự viên Hội nghị, về bài phát biểu này.
I. DẪN NHẬP: ROBOT & ĐẠO ĐỨC CỦA CON NGƯỜI
Câu hỏi “Liệu robot có ‘đàng hoàng’ hơn con người không?” không còn chỉ là một phép tu từ văn học khoa học viễn tưởng.
A. Nhà văn khoa học viễn tưởng Isaac Asimov
Isaac Asimov (920–1992) là một nhà văn khoa học viễn tưởng vĩ đại người Mỹ gốc Nga, cũng là giáo sư hóa sinh, nổi tiếng với bộ truyện Foundation và các câu chuyện về robot. Trong tác phẩm Evidence (Tuyển tập I, Robot) nói về nhân vật Byerley sống quá tốt đến mức người ta nghi ngờ Byerley là robot chứ không phải là người thật với những tham sân si, Isaac Asimov đã muốn người đọc đặt câu hỏi: liệu các robot – được con người lập trình dựa trên các quy luật đạo đức – có thể hành xử “nhân bản” hơn chính con người hay không? Có nên giao nhiệm vụ xử lý những vấn đề đạo đức cho robot hay không?
B. Các “điều luật Robotics” của Asimov
Trong câu chuyện của ông, nhà văn Asimov đã đưa ra 3 quy luật đạo đức dành cho robot:
-Robot không được tích cực gây hại cho con người, cũng không được phép vì bỏ qua – không chịu hành động – mà để cho con người bị tổn hại.
-Robot phải tuân lệnh con người, trừ khi mệnh lệnh đó xung đột với Luật Thứ Nhất.
– Robot phải bảo vệ sự tồn tại của chính mình, miễn là không xung đột với hai điều luật trên.
Các điều luật này nghe có vẻ khá thú vị, nhưng chúng lại bộc lộ một giới hạn căn bản: đạo đức không thể giao phó cho robot hay AI. AI không hiểu đau khổ, phẩm giá hay ý nghĩa của việc làm người; nó chỉ tối ưu hóa mục tiêu theo dữ liệu và thuật toán mà con người soạn sẵn cho nó. Vì thế, trọng tâm của các khung pháp lý hiện đại không phải là “trao phó đạo đức cho robot hay AI”, mà là buộc con người phải chịu trách nhiệm đạo đức và pháp lý cho các con robot do họ tạo ra.
Trong thực tế của ngày hôm nay, AI mang lại rất nhiều điều tốt đẹp, nhưng cũng gây ra biết bao nhiêu nỗi quan ngại, khiến người ta cảm thấy phải đưa ra các khung pháp lý thích hợp để điều hướng AI không gây ra những tác hại cho con người.
II. AI VÀ NEURORIGHTS
A. Antiqua et Nova (2025) và neurorights (quyền thần kinh)
Văn kiện Antiqua et Nova (2025) đánh dấu một bước phát triển quan trọng trong tư duy của Giáo hội về AI và nhân quyền. Văn kiện này nhấn mạnh rằng phẩm giá nội tại của con người là nền tảng không chỉ của luân lý Kitô giáo mà còn của toàn bộ truyền thống nhân quyền hiện đại, bao gồm cả những quyền mới nổi như neurorights (quyền thần kinh).
Tài liệu Antiqua et Nova (số 34) khẳng định rằng neurorights là “một điểm hội tụ quan trọng trong việc tìm kiếm nền tảng chung” có thể đóng vai trò như kim chỉ nam đạo đức cho việc phát triển và sử dụng AI một cách có trách nhiệm. Đặc biệt, Antiqua et Nova nhấn mạnh rằng: thước đo thực sự của nhân tính không nằm ở mức độ công nghệ cao, mà ở cách chúng ta sử dụng AI để bao gồm và bảo vệ những người yếu thế nhất trong xã hội.
B. Neurorights (Ienca & Andorno, 2017)
Theo nhóm học giả “Ienca và Andorno” (2017), sự phát triển của neurotechnology (công nghệ thần kinh) và AI đòi hỏi phải mở rộng khung nhân quyền truyền thống thành ít nhất 4 neurorights (quyền thần kinh) cốt yếu:
1. Quyền tự do nhận thức (Cognitive Liberty)
Đây là quyền kiểm soát đời sống tinh thần nội tâm của mỗi cá nhân, bao gồm cả quyền sử dụng công nghệ thần kinh và quyền được bảo vệ khỏi việc bị ép buộc hay can thiệp không có sự đồng thuận của đương sự.
2. Quyền riêng tư tinh thần (Mental Privacy)
Không chỉ dữ liệu cá nhân, mà cả dữ liệu não bộ, suy nghĩ và suy luận từ hoạt động thần kinh cũng cần được bảo vệ (Szoszkiewicz & Yuste, 2025). Khi AI có thể “đọc” hoặc suy đoán trạng thái tâm trí của một ai đó, thì ranh giới riêng tư truyền thống của con người đã bị phá vỡ.
3. Quyền toàn vẹn tinh thần (Mental Integrity)
Con người không bị can thiệp gây hại cho tâm trí: Phải bảo vệ cá nhân khỏi sự xâm nhập, thao túng hay thay đổi các quá trình thần kinh khi không được đương sự cho phép, hoặc gây tác hại cho đương sự.
4. Quyền duy trì tính liên tục tâm lý (Psychological Continuity)
Nhân cách của cá nhân phải được ổn định theo thời gian: Nhấn mạnh việc bảo vệ nhân cách, ký ức và cảm thức về bản thân trước các công nghệ có khả năng làm gián đoạn hoặc biến dạng bản sắc cá nhân.
Từ đó, các quyền và các vấn đề liên quan cũng được phát triển như:
– Quyền giữ bản sắc cá nhân (Personal Identity): Xác định được “Tôi là ai”.
– Quyền riêng tư tinh thần (Mental Privacy): Xác định được “Tôi nghĩ gì”.
– Quyền được bảo vệ khỏi những thuật toán thiên lệch (Protection against Algorithmic Bias): Xác định được “Tôi được đối xử thế nào” (cấm các thuật toán thiên lệch, tác động đến giao diện thần kinh, có thể làm suy yếu khả năng đối xử bình đẳng và phẩm giá).
– Quyền tự do ý chí và tự chủ (Right to Free Will and Agency): Xác định “Tôi được tự do lựa chọn”, không bị thao túng ngầm; được tự do tư tưởng và biểu đạt, không bị công nghệ cưỡng bức ở cấp độ thần kinh.
C. Tiền lệ pháp lý đầu tiên về neurorights (quyền thần kinh)
1. Vụ kiện tại Chilê
Qua vụ án Guido Girardi kiện Emotiv – một công ty công nghệ có trụ sở tại San Francisco (Hoa Kỳ) sản xuất các thiết bị đo hoạt động não (EEG), Chilê đã trở thành quốc gia tiên phong khi sửa đổi Hiến pháp năm 2021 để bảo vệ trực tiếp tính toàn vẹn tinh thần và hoạt động não bộ trước việc lạm dụng công nghệ thần kinh.
Cựu thượng nghị sĩ Chile Guido Girardi Lavín (nhà lập pháp, hiện hoạt động trong các lĩnh vực công nghệ và nhân quyền) đã mua và sử dụng một thiết bị Emotiv Insight (một dạng giao diện não–máy, BCI). Sau đó, Girardi đã kiện công ty Emotiv vì Emotiv vi phạm quyền riêng tư và quyền toàn vẹn tinh thần thần kinh của ông, khi Emotiv sử dụng và lưu trữ trái phép dữ liệu thần kinh thu được thông qua thiết bị tai nghe không dây có cảm biến của Emotiv: thiết bị này ghi lại hoạt động điện não của ông thông qua các cảm biến EEG đặt trên da đầu.
Tòa án kết luận rằng: thiết bị này đã ảnh hưởng tiêu cực đến quyền hiến định của Girardi và ra lệnh cho Emotiv xóa toàn bộ dữ liệu này.
Đây được coi là án lệ neurorights đầu tiên trên thế giới, cho thấy luật pháp không còn chỉ theo sau công nghệ, và đã bắt đầu đặt ra ranh giới rõ ràng hơn cho AI.
2. Cân bằng và hài hòa những trục căng thẳng của luật AI
Vụ kiện tại Chilê cho thấy: Quản trị luật AI, đặc biệt là các điều luật bảo vệ neurorights (quyền thần kinh) luôn là bài toán cân bằng giữa nhiều cặp đối lập:
– Luật mềm và luật cứng
– Hiến pháp và luật thường
– Luật chung theo chiều ngang (dựa trên rủi ro hoặc không) và luật theo ngành
– Đổi mới và bảo vệ
– Ban hành luật mới và diễn giải lại luật hiện hành
– Siêu-luật (meta-law): đạo đức dữ liệu lớn, thuật toán và đạo đức thực hành
– Trách nhiệm dựa trên lỗi – không lỗi – trách nhiệm nghiêm ngặt
– Dân sự – hành chính/quản lý – hình sự
– An ninh quốc gia và tự do & quyền riêng tư
– Lợi ích chung và quyền cá nhân.
D. Rome Call for AI Ethics: đạo đức lấy con người làm trung tâm
Hội nghị Rome Call for AI Ethics (2020) tại Vatican đã đề xuất 6 nguyên tắc cốt lõi: minh bạch, bao gồm, trách nhiệm, công bằng, tin cậy, an ninh và quyền riêng tư. Những nguyên tắc này đã ảnh hưởng sâu rộng đến các khung đạo đức AI của OECD, UNESCO và EU.
Điểm nổi bật của Rome Call là cách tiếp cận đạo đức AI: Đạo đức phải được “dệt” vào trong chính khung thiết kế, triển khai và quản trị AI ngay từ đầu, chứ không phải vá víu sau khi xảy ra hậu quả.
E. Đạo luật AI của Liên minh châu Âu (EU AI Act, 2024)
Đây là bộ luật về AI mang tính ràng buộc đầu tiên:
– Có hiệu lực từ ngày 01/8/2024; ngày áp dụng chung là 02/8/2026 và dự kiến có hiệu lực đầy đủ vào năm 2027.
– Đoạn mở đầu gồm 27 liệt kê 7 nguyên tắc làm cho AI trở nên đáng tin cậy và có đạo đức, tham chiếu ‘Hướng dẫn Đạo đức AI đáng tin cậy’ năm 2019.
– Đây là luật AI chuyên biệt, ràng buộc pháp lý, theo chiều ngang, áp dụng cho mọi lĩnh vực (công và tư), với nghĩa vụ được điều chỉnh theo mức độ rủi ro, không theo ngành.
– Lớp luật ngang này tương tác với các chế độ luật theo ngành như y tế, tài chính, công nghiệp, giáo dục, v.v.
1. Bảy nguyên tắc của EU AI Act (Đoạn 27)
– Quyền chủ thể con người và giám sát
– Độ vững kỹ thuật và an toàn
– Quyền riêng tư và quản trị dữ liệu
– Minh bạch
– Đa dạng
– Không phân biệt đối xử và công bằng
– Phúc lợi xã hội, môi trường và trách nhiệm giải trình.
2. Bốn trường hợp rủi ro tiềm ẩn trong AI
a. Các rủi ro không thể chấp nhận được
Liên minh châu Âu cấm các ứng dụng AI có những rủi ro không thể chấp nhận được như:
– Thao túng nhận thức và hành vi con người, đặc biệt các nhóm người dễ bị tổn thương:
Cấm các ứng dụng AI sử dụng kỹ thuật tiềm ẩn (subliminal) thao túng, gây hiệu ứng làm sai lệch quyết định hoặc lợi dụng độ tuổi, khuyết tật, hoàn cảnh kinh tế–xã hội của người dùng để làm méo mó hành vi của họ (European Parliament).
– Phân loại xã hội (social scoring):
Cấm các hệ thống AI đánh giá, phân loại cá nhân hoặc nhóm người, dựa trên hành vi xã hội, đặc điểm cá nhân hoặc các đặc tính dự đoán, rồi dẫn tới xử lý bất lợi (European Parliament+1).
– Phân loại sinh trắc học:
Cấm phân loại sinh trắc học (Biometric categorisation) – tức là sử dụng dữ liệu sinh trắc để suy ra các thuộc tính nhạy cảm như chủng tộc, quan điểm chính trị, tôn giáo, đời sống tình dục… (Artificial Intelligence Act).
– Nhận diện khuôn mặt để theo dõi:
Cấm các ứng dụng AI nhận dạng sinh trắc học trong “thời gian thực” ở nơi công cộng (như nhận diện khuôn mặt để theo dõi người đi đường), trừ một số trường hợp rất giới hạn phục vụ cảnh sát hoặc tình huống nghiêm trọng (như tìm người mất tích, chống khủng bố) kèm điều kiện xét duyệt chặt chẽ (AI Act Service Desk).
b. Các rủi ro cao
Liên minh châu Âu cấm các hệ thống AI có độ rủi ro cao, có tác động tiêu cực đến sự an toàn hoặc các quyền cơ bản, nằm trong:
– Đồ chơi, hàng không, ô tô, thiết bị y tế, v.v.
– Hoạt động xã hội, như thực thi pháp luật, quản lý di cư, tị nạn, kiểm soát biên giới…
c. Các rủi ro hạn chế
Khi ứng dụng AI có những rủi ro hạn chế, ví dụ như ChatGPT, Liên minh châu Âu đòi hỏi người xây dựng những ứng dụng này phải tuân thủ các yêu cầu về sự minh bạch và luật bản quyền của EU:
– Công bố bản tóm tắt các dữ liệu có bản quyền được sử dụng để huấn luyện.
– Thiết kế mô hình để tránh tạo ra nội dung bất hợp pháp.
Người sử dụng AI phải công bố nội dung mình có được nhờ AI.
d. Các rủi ro tối thiểu hoặc không có rủi ro
Đạo luật AI của Liên minh châu Âu không đưa ra quy định đối với AI được xem là có rủi ro tối thiểu hoặc không có rủi ro. Phần lớn các hệ thống AI hiện đang được sử dụng trong EU thuộc nhóm này, bao gồm các ứng dụng như trò chơi điện tử có AI hoặc bộ lọc thư rác.
3. Thực thi & Hình phạt
– Các quốc gia EU thành lập cơ quan giám sát và liên kết với Văn phòng AI châu Âu (European AI Office) để phối hợp thực thi.
– Hình phạt rất nặng đối với vi phạm nghiêm trọng: có thể lên đến €35 triệu hoặc 7% doanh thu toàn cầu.
F. Khung Quản lý Rủi ro AI (AI Risk Management Framework – AI RMF 1.0)
Khung Quản lý này do Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) thuộc Bộ Thương mại Hoa Kỳ xây dựng và phát triển (2023).
Phần cốt lõi của AI RMF cung cấp các kết quả và hành động thúc đẩy đối thoại, hiểu biết và hoạt động quản lý rủi ro AI và phát triển các hệ thống AI đáng tin cậy một cách có trách nhiệm.
Phần cốt lõi này của khung Quản lý Rủi ro AI bao gồm 4 chức năng chính:
1. Govern – Quản trị: xây dựng và duy trì văn hóa quản lý rủi ro
2. Map – Lập bản đồ: nhận diện bối cảnh và các rủi ro liên quan đến bối cảnh
3. Measure – Đo lường: đánh giá, phân tích hoặc theo dõi các rủi ro đã được xác định
4. Manage – Xử lý: ưu tiên xử lý rủi ro dựa trên tác động dự kiến.
G. Quản trị AI tại Hong Kong
1. Khung “chắp vá” (Patchwork Framework)
– Hong Kong không có luật AI “cứng” chuyên biệt, cả ở cấp hiến pháp lẫn cấp luật thường.
– Tương tự nhiều khu vực pháp lý khác, Hong Kong sử dụng một khung chắp vá, tận dụng các quy phạm pháp luật, quy định và chuẩn mực hiện có trong các lĩnh vực khác nhau để xử lý hành vi sai phạm liên quan đến AI như gian lận, deepfake, v.v.
– Các quy định này (luật cứng) bao gồm luật bảo vệ dữ liệu cá nhân và quyền riêng tư (ví dụ: Pháp lệnh Bảo vệ Dữ liệu Cá nhân, chương 486), luật sở hữu trí tuệ, luật chống phân biệt đối xử, luật cạnh tranh, trách nhiệm sản phẩm và các luật bảo vệ người tiêu dùng khác, cũng như các quyền con người được hiến pháp bảo đảm, bên cạnh luật hình sự, thông luật và luật an ninh quốc gia, khi áp dụng.
– Cũng như nhiều khu vực pháp lý khác, luật mềm được sử dụng thông qua các khung đạo đức và thực hành tốt; các khung này thường phát triển nhanh hơn luật thành văn.
2. Luật mềm về quản trị AI tại Hong Kong
– Văn phòng Giám đốc Thông tin Chính phủ (OGCIO), nay là Văn phòng Chính sách Số (DPO), đã định hình đáng kể nền tảng luật mềm về quản trị AI tại Hong Kong, đặc biệt liên quan đến các nguyên tắc đạo đức, kiểm soát dựa trên rủi ro và AI tạo sinh.
– Khung Đạo đức AI trình bày 12 nguyên tắc (2 nguyên tắc “hiệu năng” và 10 nguyên tắc “chung”), áp dụng cho tất cả các dự án AI của chính phủ và được khuyến nghị làm tài liệu tham chiếu cho hệ sinh thái rộng hơn (DPO, 2024: §3.5.1).
– Các nguyên tắc này được chủ ý điều chỉnh cho phù hợp với các tiêu chuẩn quốc tế như các yêu cầu của EU AI Act.
3. Hướng dẫn Kỹ thuật và Ứng dụng AI Tạo sinh (DPO, 2025)
– Cung cấp các quy tắc vận hành thực tiễn cho nhà phát triển, nhà cung cấp dịch vụ và người sử dụng AI tạo sinh.
– Bao gồm phạm vi và giới hạn sử dụng, hệ thống phân loại rủi ro và các nguyên tắc quản trị nhằm giải quyết các vấn đề then chốt của AI.
– Kết hợp với khung nêu trên và Danh sách Kiểm tra cho nhân viên năm 2025, các tài liệu này tạo thành khung quản trị AI địa phương hiện hành của Hong Kong, là phần cốt lõi của hệ thống luật mềm.
4. Các cơ quan quản lý
Do không có quy định AI chuyên biệt, các tổ chức chịu sự giám sát của nhiều cơ quan và tổ chức nhà nước khác nhau, bao gồm:
– Văn phòng Chính sách Số (DPO)
– Ủy viên Bảo vệ Dữ liệu Cá nhân (PCPD)
– Cục Phát triển Thương mại và Kinh tế
– Cục Sở hữu Trí tuệ
– Cục Dịch vụ Tài chính và Ngân khố
– Ủy ban Chứng khoán và Hợp đồng Tương lai (SFC)
– Cơ quan Tiền tệ Hong Kong (HKMA)
– Cơ quan Bảo hiểm
– Cơ quan Quỹ Hưu trí Bắt buộc
– Hội đồng Báo cáo và Kiểm toán Tài chính (White & Case, 2025)
5. Khung Đạo đức AI của OGCIO (Office of the Government Chief Information Officer
– Văn phòng Giám đốc Công nghệ Thông tin của Chính phủ Hong Kong)
a. Các nguyên tắc chung:
– Công bằng
– Đa dạng và bao hàm
– Giám sát của con người
– Tính hợp pháp và tuân thủ
– Quyền riêng tư dữ liệu
– An toàn
– Trách nhiệm giải trình
– AI mang lại lợi ích
– Hợp tác và cởi mở
– Bền vững và chuyển đổi công bằng
b. Các nguyên tắc “hiệu năng”:
– Minh bạch và khả năng diễn giải
– Độ tin cậy, tính vững chắc và an ninh
H. Một số khu vực pháp lý khác tại châu Á
– Tương tự Hong Kong, phần lớn các khu vực pháp lý khác ở châu Á chưa có Đạo luật AI chuyên biệt mà chỉ áp dụng cách tiếp cận chắp vá, dù nhiều luật mới đang được chuẩn bị soạn thảo.
– Nhật Bản đã ban hành Đạo luật Thúc đẩy Nghiên cứu, Phát triển và Ứng dụng Công nghệ liên quan đến AI (thường gọi là AI Promotion Act), là một luật khung ưu tiên đổi mới, tập trung vào hỗ trợ R&D (Research and Development: Nghiên cứu và Phát triển), sử dụng có trách nhiệm và điều phối, thay vì các kiểm soát tiền kiểm nghiêm ngặt.
– Việc thiếu vắng luật độc lập hoặc luật ngang không phản ánh đầy đủ mức độ kiểm soát AI trên thực tế. Ví dụ, Trung Quốc đại lục có chế độ AI tích hợp theo chiều dọc và mang tính ràng buộc cao nhất trong khu vực; Ấn Độ chưa có luật AI tổng thể nhưng đang tích hợp các quy định AI vào các đạo luật số sắp ban hành; Singapore không có một đạo luật duy nhất nhưng sở hữu một trong những hệ thống luật mềm và luật cứng tinh vi nhất về quản trị AI và an ninh mạng; Indonesia, Singapore và Malaysia – với tư cách thành viên ASEAN – cũng chịu sự định hướng của Khung Quản trị và Đạo đức AI Đông Nam Á.
I. Những người dễ bị tổn thương và những nguy cơ mới
Trong bối cảnh thời đại AI, các khung pháp lý đặc biệt quan tâm đến “các nhóm dễ bị tổn thương” bao gồm:
1. Trẻ em và thanh thiếu niên (cấm hoặc hạn chế nghiêm ngặt AI mang tính thao túng hoặc gây nghiện, bao gồm các “mẫu tối – dark patterns”);
2. Người cao tuổi, đặc biệt là những người phụ thuộc vào sự chăm sóc bằng AI hay robot;
3. Người khuyết tật, đặc biệt là những người phụ thuộc vào giao diện não–máy (BCI);
4. Phụ nữ và bé gái;
5. Cá nhân và cộng đồng có hoàn cảnh khó khăn hoặc thu nhập thấp;
6. Các nhóm thiểu số bị gạt ra bên lề về chủng tộc, sắc tộc, ngôn ngữ, văn hóa hoặc tôn giáo;
7. Người di cư, người tị nạn và người phải di dời;
8. Những người trong các tình trạng dễ bị tổn thương cụ thể (ví dụ: bệnh nặng, việc làm bấp bênh, bối cảnh xung đột hoặc thảm họa, phụ thuộc vào phúc lợi xã hội).
J. Các mối quan ngại về an ninh mạng AI
Bối cảnh của những người dễ bị tổn thương đòi hỏi các khung pháp lý cần lưu ý đến những nguy cơ đặc biệt từ AI, ví dụ:
– AI làm gia tăng các mối đe dọa hiện hữu, cho phép các hình thức lừa đảo qua thư điện tử (phishing), lừa đảo xã hội và tạo mã độc hiệu quả hơn, có khả năng né tránh các phương thức phát hiện truyền thống.
– Dữ liệu nhạy cảm có nguy cơ bị lộ hoặc bị sử dụng sai mục đích cao hơn khi được đưa vào các hệ thống AI và các công cụ “AI bóng tối” (shadow AI) không được phê duyệt, thiếu kiểm soát truy cập hoặc cơ chế quản trị phù hợp.
– Bản thân các mô hình AI có thể bị tấn công (ví dụ: đầu độc dữ liệu, đánh cắp mô hình, đầu vào đối kháng), làm suy yếu tính toàn vẹn và độ tin cậy của kết quả đầu ra.
– Các chiến dịch tống tiền và mã độc tống tiền có thể được mở rộng quy mô và cá nhân hóa bằng AI, làm gia tăng tác động đối với cơ sở hạ tầng trọng yếu và các dịch vụ thiết yếu.
– Việc sử dụng rộng rãi deepfake và nội dung tổng hợp do AI tạo ra làm xói mòn niềm tin trên không gian mạng và khiến người dùng khó phân biệt thông tin thật với các hình thức lừa đảo.
K. Quan ngại về việc dùng AI để giám sát, lập hồ sơ và kiểm duyệt
Các khung pháp lý cần đặc biệt xét duyệt các hệ thống AI dùng để giám sát, lập hồ sơ và kiểm duyệt:
– Giám sát hàng loạt công dân thông qua AI nhận diện khuôn mặt, với hệ thống dữ liệu lớn và cơ sở dữ liệu sinh trắc học, có thể làm tổn hại đến tự do cá nhân và quyền riêng tư.
– Các cơ sở dữ liệu tín dụng xã hội hoặc an ninh vận hành bằng AI có thể làm trầm trọng thêm sự phân biệt đối xử đối với các nhóm vốn đã bị gạt ra bên lề, bao gồm cả các nhóm tôn giáo.
– Kiểm duyệt và lọc nội dung bằng AI trong không gian số có thể ngăn cản người dân tiếp cận thông tin chính xác.
L. Các “lan can an toàn” cho AI (AI Guardrails)
Cần có các “lan can an toàn” cho AI, là các biện pháp bảo vệ nhằm giữ cho hệ thống AI vận hành an toàn, có trách nhiệm và trong các giới hạn được xác định (Krantz & Jonker).
Các loại “lan can an toàn (AI Guardrails)” này bao gồm: an toàn dữ liệu, an toàn mô hình, an toàn ứng dụng và an toàn hạ tầng.
Với sự gia tăng của ‘học tăng cường tự động (RL)’ và các hệ thống AI ‘tác nhân tự động’, sự giám sát của con người trên AI ngày càng trở nên phức tạp hơn:
1. Con người tác động trong vòng lặp hoạt động của AI (Human-in-the-loop – HITL): AI cần có sự phê duyệt hoặc chỉnh sửa của con người trước khi AI có các hành động hoặc quyết định quan trọng.
2. Con người tác động trên vòng lặp hoạt động của AI (Human-on-the-loop – HOTL): AI hoạt động chủ yếu tự động nhưng được giám sát: con người có thể tạm dừng, ghi đè hoặc tắt máy khi xảy ra sự cố bất thường hoặc vi phạm ngưỡng giới hạn.
3. Con người tác động trong vòng lặp huấn luyện AI (Human-in-the-training-loop – HITL): Con người định hình quá trình học tập của AI thông qua sự can thiệp, định hình bằng phần thưởng hoặc phản hồi, như trong ‘Học tăng cường’ có sự can thiệp của con người (Human-Intervention RL) và ‘Học tăng cường’ từ phản hồi của con người (RL from human feedback).
M. Các vụ án tiêu biểu liên quan đến AI
1. Các vụ án về dữ liệu huấn luyện và bản quyền
a. Vụ kiện của các tác giả đối với Anthropic (Hoa Kỳ, Bắc California, 2024): Bartz và các nguyên đơn khác đã kiện Anthropic PBC về việc Anthropic sử dụng hàng triệu cuốn sách để huấn luyện mô hình Claude, với cáo buộc vi phạm bản quyền quy mô lớn. Các vấn đề pháp lý vẫn chưa được giải quyết dứt điểm.
b. Thomson Reuters kiện ROSS Intelligence: Thomson Reuters kiện ROSS vì sử dụng các tiêu đề chú giải của Westlaw để huấn luyện công cụ nghiên cứu pháp lý bằng AI. Tòa án cho rằng việc sử dụng không có giấy phép cấu thành hành vi xâm phạm, nhưng phán quyết này cũng chưa thể coi là đã giải quyết dứt điểm vấn đề pháp lý nói chung.
2. Các vụ án về tạo hình ảnh, bộ dữ liệu và quyền của nghệ sĩ
a. Andersen kiện Stability AI (2014) và các vụ liên quan: các nghệ sĩ cho rằng hình ảnh trực tuyến của họ đã bị sử dụng để huấn luyện các trình tạo hình ảnh bằng AI. Tòa án cho phép một phần các yêu cầu về bản quyền và nhãn hiệu được tiếp tục đưa ra xét xử.
b. Getty Images kiện Stability AI [2025] EWHC 2863: Tòa án Tối cao Anh cho phép áp dụng biện pháp khắc phục hạn chế đối với các yêu cầu được theo đuổi.
3. Các vụ án về Quyền tác giả đối với đầu ra do AI tạo ra
a. Tòa án Internet Bắc Kinh (Trung Quốc, 2023) – vụ án Jing 0491 Min Chu số 11279: Tòa án phán quyết rằng: một hình ảnh do AI tạo ra, thông qua kỹ thuật prompt và lựa chọn của người dùng, có thể đủ điều kiện được bảo hộ bản quyền vì phản ánh đóng góp trí tuệ và biểu đạt cá nhân của nguyên đơn. Về mặt xâm phạm, việc bị đơn sử dụng hình ảnh do AI tạo ra trong bài viết mà không xin phép và xóa watermark đã bị coi là xâm phạm quyền nhân thân và quyền tài sản của nguyên đơn.
b. Thaler kiện Perlmutter (Hoa Kỳ, D.D.C. 2023; D.C. Cir. 2025): Stephen Thaler nộp đơn đăng ký bản quyền cho một tác phẩm được cho là do hệ thống AI “Creativity Machine” tạo ra một cách “tự chủ”, nêu tên AI là tác giả và yêu cầu quyền sở hữu theo cơ chế “tác phẩm theo hợp đồng”. Các tòa án bác đơn, khẳng định rằng: tác giả cần phải là con người (yêu cầu nền tảng của luật bản quyền Hoa Kỳ), và một thực thể phi nhân tính (ở đây là hệ thống AI) không thể là “tác giả” để có thể đăng ký tác quyền.
N. Các mối quan tâm mục vụ của Truyền thông Công Giáo
1. Các xác tín cốt lõi
– Truyền thông là sự hiệp thông, đối thoại, thông tin và nói sự thật trong bác ái, cùng đồng hành với người khác trong tinh thần hiệp hành (synodality).
– Con người, chứ không phải máy móc, mang hình ảnh của Thiên Chúa và sở hữu linh hồn bất tử mà AI không bao giờ có thể sao chép hay thay thế. AI có tính mô phỏng (memetic) nhưng không bao giờ là hình ảnh đích thực của Thiên Chúa hay của con người.
– AI phải được đánh giá dưới ánh sáng của phẩm giá con người, lợi ích chung, tình liên đới và ưu tiên dành cho người nghèo, nhằm giải quyết “khoảng cách số” – sự bất bình đẳng về của cải vật chất và ảnh hưởng xã hội–chính trị bị công nghệ số làm trầm trọng thêm (AN: 52).
– Trách nhiệm luân lý luôn thuộc về con người, bao gồm các nhà thiết kế, nhà lãnh đạo và những người sử dụng; không có thuật toán nào có thể mang tội lỗi hay nhân đức luân lý. AI chỉ có giá trị công cụ: “Trái tim của truyền thông vẫn luôn là con người. Các mối quan hệ, sự phân định và tính chân thực không thể được tự động hóa”.
2. Các mối quan tâm đạo đức và mục vụ cụ thể
Cần phải đặc biệt lưu ý đến những vấn nạn cụ thể dưới góc nhìn pháp lý để cộng tác với nhau mà hóa giải, ví dụ:
– Việc sử dụng AI chatbot mang tính gây nghiện hoặc bất hợp pháp, chẳng hạn như sự gắn bó quá mức và thân mật với bạn đồng hành AI, AI xu nịnh dưới dạng robot hình người…
– AI trong nội dung khiêu dâm; deepfake không có sự đồng thuận.
– Tin giả và thông tin sai lệch; những lừa dối và gian lận được AI hỗ trợ.
– Các hình thức “nudging” siêu cá nhân hóa và dark patterns do thuật toán điều khiển.
– Doxxing: thu thập và phổ biến thông tin cá nhân của một người trên mạng cách trái phép, thường với mục đích đe doạ, quấy rối, bôi nhọ hoặc gây tổn hại cho họ.
III. KẾT LUẬN: AI VÀ CON NGƯỜI
Cuộc cách mạng AI đặt ra không chỉ câu hỏi “AI có thể làm gì?”, mà quan trọng hơn là: “chúng ta cho phép AI làm gì đối với con người”.
Neurorights (Quyền Thần Kinh), luật AI và các khuôn khổ đạo đức không nhằm kìm hãm tiến bộ, mà để bảo đảm rằng: tiến bộ đó phục vụ phẩm giá, tự do và tương lai chung của toàn thể nhân loại, đặc biệt là những người yếu thế nhất.
Tác giả: Giáo sư Denis Chang
Lm. Giuse Vi Hữu ghi nhận
—————
[1] https://research.ibm.com/blog/ibm-ai-ethics-japan-rome-call
https%3A%2F%2Fhdgmvietnam.com%2Fchi-tiet%2Fhoi-nghi-bismeet-2025-va-khia-canh-phap-ly-cua-ai




