Quản lý theo “kim tự tháp rủi ro”
Đạo luật AI của EU phân loại các ứng dụng AI theo 4 cấp độ rủi ro: không rủi ro, rủi ro tối thiểu, rủi ro cao và rủi ro không thể chấp nhận.
Trong lĩnh vực truyền thông, những công cụ AI tạo nội dung, AI tổng hợp hình ảnh, giọng nói, và chatbot sử dụng cho mục đích tin tức như các phiên bản AI của phát thanh viên, MC hay nhà báo ảo – đều có thể bị xếp vào nhóm “rủi ro tối thiểu”.

Còn các nội dung deepfake trong truyền thông, đặc biệt là tin tức giả mạo nhân vật nổi tiếng hoặc lãnh đạo chính trị, sẽ xếp vào nhóm “rủi ro cao”. Công nghệ deepfake đã được sử dụng trong nhiều chiến dịch tung tin giả ở Ukraine, châu Phi và châu Âu. Do đó, đạo luật nghiêm cấm bất kỳ nội dung deepfake nào được phát sóng hoặc phát tán mà không dán nhãn sản phẩm do AI tạo ra; xóa bỏ “vùng xám” đối với tội phạm công nghệ.
Chống tin giả và deepfake
Một trong những trụ cột của AI Act là chống thông tin sai lệch. Theo đó, các tổ chức truyền thông sử dụng AI tạo nội dung phải bảo đảm tính minh bạch, cụ thể như sau: gắn nhãn rõ ràng đối với nội dung do AI tạo ra (ảnh, video, văn bản); công bố thuật toán hoặc mô hình AI đang sử dụng; bảo đảm quyền phản hồi của người dùng đối với các thông tin sai lệch do AI tạo ra; cấm tuyệt đối việc sử dụng AI để giả mạo giọng nói, khuôn mặt, danh tính cá nhân trong ngữ cảnh chính trị mà không thông báo rõ ràng cho công chúng.
Ủy viên phụ trách Thị trường nội địa EU Thierry Breton, nhấn mạnh: “Chúng tôi không cấm sử dụng AI trong truyền thông, nhưng chúng tôi muốn đảm bảo rằng AI không trở thành công cụ phá hoại lòng tin công chúng vào thông tin, báo chí và nền dân chủ”.
Nguyên tắc “con người kiểm soát”
AI Act tôn trọng nguyên tắc báo chí “quyền biên tập”, nghĩa là tòa soạn có thể sử dụng AI hỗ trợ viết tin, gợi ý tiêu đề, hoặc dịch nội dung, miễn là con người vẫn kiểm soát quyết định cuối cùng. Đây là một nỗ lực nhằm bảo vệ tự do báo chí, đồng thời tránh để AI tự động hóa toàn bộ quy trình sản xuất tin tức – điều có thể dẫn đến sai sót hoặc thao túng thông tin.
Tuy nhiên, AI Act cũng yêu cầu các cơ quan báo chí minh bạch về mức độ can thiệp của AI trong nội dung. Ví dụ: một bài viết do AI viết phần lớn phải được hiệu đính công khai cho độc giả được biết.
Cơ chế cùng chịu trách nhiệm
AI Act phân định rõ nghĩa vụ giữa ba đối tượng chính:
– Nhà cung cấp công nghệ (như Google, Meta): Chịu trách nhiệm về rủi ro từ mô hình AI tổng quát. Ví dụ: nếu công cụ AI viết bài lan truyền thông tin sai, nhà phát triển có thể bị phạt 7% doanh thu toàn cầu.
– Cơ quan truyền thông: Thiết kế quy trình biên tập để kiểm soát đầu ra AI, đặc biệt với tin nhạy cảm như chính trị, y tế.
– Chính phủ các nước thành viên: Thành lập cơ quan giám sát AI, hỗ trợ tài chính cho dự án AI “có trách nhiệm” .
Cơ chế này được thiết kế dựa trên nguyên tắc “không thể ủy thác trách nhiệm đạo đức cho thuật toán”.
Bước đi tiên phong
Việc EU đi đầu trong điều chỉnh AI truyền thông đang tạo hiệu ứng lan tỏa trên toàn cầu. Nhiều quốc gia như Canada, Brazil, Hàn Quốc và Australia đang tham khảo AI Act để xây dựng luật nội địa. Ngay cả Mỹ, vốn không có đạo luật AI liên bang, cũng bắt đầu thúc đẩy các nguyên tắc đạo đức AI cho lĩnh vực truyền thông, đặc biệt trong mùa bầu cử tổng thống 2024.
Việc ban hành AI Act không chỉ là bước đi pháp lý, mà còn là lời khẳng định về giá trị cốt lõi mà EU muốn bảo vệ: sự thật, minh bạch, và lòng tin công chúng. Trong khi công nghệ AI tiếp tục phát triển mạnh mẽ, tương lai của ngành truyền thông sẽ phụ thuộc vào việc con người làm chủ công nghệ như thế nào. EU đã chọn cách không đứng ngoài cuộc, mà hành động để định hình cuộc chơi.
https%3A%2F%2Fdaibieunhandan.vn%2Fquy-dinh-ve-ai-trong-bao-chi-truyen-thong-ai-act-bao-ve-gia-tri-cot-loi-cua-bao-chi-10376738.html