Home Tin tức AI Ba đề xuất hoàn thiện hành lang pháp lý cho ứng dụng...

Ba đề xuất hoàn thiện hành lang pháp lý cho ứng dụng AI trong nghiên cứu xã hội và nhân văn

0

Cần hoàn thiện khung pháp lý cho ứng dụng AI trong nghiên cứu KHXH&NV

Trong bối cảnh Trí tuệ nhân tạo (AI) phát triển nhanh chóng và tác động sâu rộng đến các lĩnh vực khoa học, bao gồm cả khoa học xã hội và nhân văn (KHXH&NV), việc điều chỉnh pháp luật đối với công nghệ mới không thể chỉ dựa vào các công cụ pháp lý truyền thống. Thay vào đó, cần đặt trong một nền tảng lý luận đa chiều, phản ánh sự thay đổi bản chất của quan hệ xã hội dưới tác động của công nghệ.

Pháp luật cần đóng vai trò như một công cụ nhận diện, phòng ngừa và quản lý các rủi ro mới, đặc biệt là những rủi ro chưa chắc chắn và khó lường phát sinh từ việc ứng dụng AI vào hoạt động học thuật. Trong trường hợp của KHXH&NV, các rủi ro như thiên kiến thuật toán, tổn hại đến quyền riêng tư, sai lệch diễn ngôn hay xói mòn đạo đức nghiên cứu cần được nhận diện từ sớm, với các công cụ điều chỉnh thích hợp.

Chia sẻ tại hội thảo khoa học “Ứng dụng trí tuệ nhân tạo (AI): Cơ hội và thách thức đối với nghiên cứu khoa học xã hội ở Việt Nam hiện nay” do Viện Hàn lâm Khoa học xã hội (KHXH) Việt Nam tổ chức mới đây, TS. Phạm Thị Thúy Nga, Phó Viện trưởng phụ trách Viện Nhà nước và Pháp luật cho biết: So với các ngành khoa học kỹ thuật – công nghệ, KHXH&NV có những đặc điểm nhận thức luận và phương pháp luận riêng biệt, tạo nên sự khác biệt căn bản trong cách thức thiết kế nghiên cứu, xử lý dữ liệu, cũng như đánh giá độ tin cậy của kết quả.

TS. Phạm Thị Thúy Nga: Hoàn thiện khung pháp lý cho ứng dụng AI trong nghiên cứu KHXH&NV đang trở thành một yêu cầu cấp thiết cả trên bình diện quốc tế lẫn tại Việt Nam.

Các đối tượng nghiên cứu trong KHXH&NV – như giá trị xã hội, hành vi tập thể, ý thức cộng đồng, thực hành văn hóa – không tồn tại một cách “khách quan” độc lập, mà thường mang tính diễn ngôn, gắn với ngữ cảnh xã hội và được kiến tạo qua lịch sử. Điều này dẫn đến việc các phương pháp nghiên cứu định tính, phân tích văn bản, diễn ngôn hoặc tiếp cận phê phán thường được sử dụng rộng rãi, đòi hỏi sự thấu cảm, lý giải và diễn giải thay vì đo lường đơn thuần.

Hiện nay, việc sử dụng AI trong nghiên cứu KHXH&NV mang lại nhiều lợi ích quan trọng nhưng cũng tạo ra các vấn đề đạo đức mới và phức tạp. Mặc dù, các vấn đề đạo đức này không đòi hỏi phải thay đổi các chuẩn mực đạo đức đã được thiết lập của khoa học, nhưng chúng đòi hỏi cộng đồng các nhà khoa học phải sử dụng AI một cách phù hợp.

Chính vì thế, hoàn thiện khung pháp lý cho ứng dụng AI trong nghiên cứu KHXH&NV đang trở thành một yêu cầu cấp thiết cả trên bình diện quốc tế lẫn tại Việt Nam. Nhất là đối với Việt Nam nhằm bảo đảm công nghệ được phát triển trong khuôn khổ pháp quyền, tôn trọng các giá trị nhân văn và phục vụ lợi ích xã hội.

“Điều này không chỉ góp phần nâng cao chất lượng nghiên cứu, mà còn bảo vệ quyền và lợi ích của cá nhân và cộng đồng trong một nền khoa học hiện đại, số hóa và bền vững. Một khung pháp lý cởi mở nhưng kiểm soát hiệu quả sẽ giúp AI trở thành công cụ phục vụ con người, bảo vệ quyền con người và thúc đẩy phát triển tri thức xã hội bền vững ở Việt Nam trong thời gian tới”, TS. Phạm Thị Thúy Nga chia sẻ.

Theo nhóm ngiên cứu của TS. Trịnh Thái Quang và TS. Nguyễn Đình Tuấn, Viện Nghiên cứu Con người, Gia đình và Giới: AI đang cách mạng hóa ngành KHXH thông qua việc nâng cao năng lực phân tích dữ liệu, mô hình hóa dự báo và hỗ trợ ra quyết định trên nhiều lĩnh vực, bao gồm công tác xã hội, tội phạm học và chính sách công…

Tuy nhiên, sự tích hợp AI vào KHXH cũng đặt ra những lo ngại đạo đức quan trọng liên quan đến quyền riêng tư, định kiến thuật toán và tính minh bạch trong quy trình ra quyết định.

Những lo ngại về sự đồng thuận có hiểu biết (informed consent), quyền riêng tư dữ liệu (data privacy), và nguy cơ dẫn đến kết quả phân biệt đối xử đã làm nổi bật nhu cầu kiểm tra nghiêm ngặt các công nghệ AI. Chẳng hạn, định kiến thuật toán (algorithmic biases) có thể kéo dài những bất bình đẳng đã có, tác động không cân xứng đến các cộng đồng thiệt thòi.

Do đó, các bên liên quan được khuyến nghị ưu tiên xem xét các yếu tố đạo đức trong quá trình phát triển và triển khai giải pháp AI, đảm bảo chúng phù hợp với nguyên tắc công bằng xã hội và không làm trầm trọng thêm những bất công mang tính hệ thống.

Những thảo luận về AI trong KHXH không chỉ mang tính học thuật mà còn đòi hỏi những khuôn khổ hành động và hướng dẫn cụ thể để giải quyết tính phức tạp trong các ứng dụng thực tiễn.

“Cách tiếp cận hợp tác có sự tham gia của cộng đồng và các đối tác đa ngành là yếu tố thiết yếu để đảm bảo công nghệ AI phục vụ công bằng cho các nhóm dân cư đa dạng. Khi lĩnh vực này tiếp tục phát triển, các nghiên cứu liên tục về hệ lụy đạo đức của AI sẽ đóng vai trò quan trọng trong việc định hướng thực hành có trách nhiệm và xây dựng lòng tin giữa người dùng lẫn giới chuyên môn”.

Cần thiết lập một hành lang pháp lý mềm linh hoạt

Theo TS. Phạm Thị Thúy Nga, hiện nay có 5 nhóm rủi ro chính liên quan đến việc ứng dụng AI trong nghiên cứu KHXH&NV, bao gồm: (1) vi phạm quyền riêng tư cá nhân trong khảo sát và phỏng vấn; (2) mơ hồ trong xác định quyền tác giả khi sử dụng AI sinh nội dung; (3) sai lệch do dữ liệu huấn luyện thiếu đại diện; (4) nguy cơ mất tính minh bạch trong diễn giải; và (5) xói mòn chuẩn mực đạo đức học thuật do lạm dụng công cụ công nghệ.

Do vậy, cần thiết lập một hành lang pháp lý mềm linh hoạt, kết hợp giữa đạo đức nghiên cứu và quy định pháp lý để kiểm soát tốt hơn. Việc ứng dụng AI – vốn được xây dựng dựa trên các mô hình học máy, xác suất thống kê và xử lý dữ liệu lớn – vào nghiên cứu KHXH&NV cần được tiếp cận với sự thận trọng và cân nhắc cao độ.

“Trong bối cảnh nghiên cứu KHXH&NV, khái niệm “hành lang pháp lý” cần được hiểu theo nghĩa rộng, không chỉ bao gồm các quy định mang tính bắt buộc (luật, nghị định), mà còn bao gồm cả các nguyên tắc hướng dẫn đạo đức nghiên cứu, cơ chế tự giám sát trong cộng đồng học thuật, và các quy chuẩn nghề nghiệp do các tổ chức học thuật, cơ sở nghiên cứu ban hành”.

Ba định hướng cơ bản

Cũng theo TS. Phạm Thị Thúy Nga, Việt Nam, mặc dù đã có những bước đi quan trọng với việc ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030 nhưng dưới góc độ pháp lý đối với ứng dụng AI trong KHXH&NV vẫn chưa được tiếp cận một cách hệ thống. Hệ thống pháp luật hiện hành chủ yếu tập trung vào các khía cạnh công nghệ – kỹ thuật, trong khi lại thiếu vắng những quy phạm chuyên biệt điều chỉnh các vấn đề đặc thù trong nghiên cứu KHXH&NV.

Từ thực tế đó, TS. Phạm Thị Thúy Nga đề xuất, Tại Việt Nam, để xây dựng hành lang pháp lý cho ứng dụng AI trong nghiên cứu KHXH&NV, có thể cân nhắc 3 định hướng cơ bản:

Một là, bổ sung nội dung về đạo đức và trách nhiệm pháp lý trong các văn bản điều chỉnh hoạt động khoa học – công nghệ, đặc biệt trong dự thảo Luật Khoa học, Công nghệ và Đổi mới sáng tạo…

Hai là, phát triển bộ quy tắc đạo đức nghiên cứu áp dụng riêng cho các lĩnh vực có sử dụng công nghệ AI, do Bộ Khoa học và Công nghệ (KH&CN) phối hợp với các tổ chức học thuật chủ trì;

Ba là, xây dựng cơ chế thí điểm cho các đề tài nghiên cứu có sử dụng AI để đánh giá rủi ro, kiểm định chuẩn mực và thử nghiệm khung pháp lý phù hợp với bối cảnh xã hội – văn hóa Việt Nam.

“Việc ứng dụng AI trong KHXH&NV đòi hỏi một cách tiếp cận thận trọng, toàn diện và có trách nhiệm, đặt trọng tâm vào việc xây dựng các chuẩn mực pháp lý – đạo đức phù hợp nhằm đảm bảo tính minh bạch, công bằng và nhân văn trong hoạt động nghiên cứu khoa học”, TS. Phạm Thị Thúy Nga nhấn mạnh./.

https%3A%2F%2Fictvietnam.vn%2Fba-de-xuat-hoan-thien-hanh-lang-phap-ly-cho-ung-dung-ai-trong-nghien-cuu-xa-hoi-va-nhan-van-69770.html

Exit mobile version