25.4 C
Kwang Binh
spot_img
Thứ Bảy, Tháng 5 17, 2025

Vì sao các doanh nghiệp lớn trên thế giới phải xây dựng đạo đức cho AI?

Must read

Từ ngày 15 đến ngày 16-5, tại TP.HCM đã diễn ra khóa học “Đạo đức AI” do Viện Công nghệ Blockchain và Trí tuệ nhân tạo (ABAII) phối hợp với Đại sứ quán Hoa Kỳ và Tổng Lãnh sự quán Hoa Kỳ tổ chức.

Đây là khoá học về đạo đức AI đầu tiên tại Việt Nam, được thiết kế dành riêng cho cộng đồng chuyên gia công nghệ, cán bộ quản lý nhà nước, giảng viên và nhà nghiên cứu.

Sử dụng AI có trách nhiệm

Phát biểu tại khóa học, ông Đào Trung Thành, Phó Viện trưởng kiêm Chủ tịch Hội đồng Giảng viên Viện ABAII- thành viên Hội đồng Đạo đức Tài sản số và Trí tuệ nhân tạo ABAII cho rằng, AI vốn đang len lỏi vào từng quyết định y tế, tài chính, giáo dục, truyền thông và thậm chí cả chính sách công. Do đó câu hỏi, “nên hay không nên dùng AI?” đã không còn nữa mà thay bằng “chúng ta sẽ dùng AI theo cách nào để không làm tổn thương chính chúng ta?”.

“Tôi tin rằng, AI không nên thay thế con người mà phải nâng tầm con người. Và đạo đức AI không phải là lựa chọn, mà là nền móng của niềm tin xã hội trong kỷ nguyên số”- ông Trung nhấn mạnh.

đạo đức AI
Phó Viện trưởng kiêm Chủ tịch Hội đồng Giảng viên Viện ABAII. ẢNH: HẢI YẾN

Theo ông Đào Trung Thành, đạo đức AI hay sử dụng AI có trách nhiệm là chủ đề rất được quan tâm, đặc biệt là các quốc gia phát triển. Đơn cử tại Hoa Kỳ, một số doanh nghiệp công nghệ lớn đều có cách tiếp cận và xây dựng cho doanh nghiệp những quy định, bộ đánh giá trong việc sử dụng AI có trách nhiệm.

Đơn cử như Microsoft đã ra mắt hơn 30 công cụ AI có trách nhiệm, bao gồm đánh giá an toàn, bộ lọc nội dung và lá chắn nhắc nhở để phát hiện và quản lý rủi ro tấn công nội dung.

Còn IBM, công ty công nghệ máy tính đa quốc gia, 100% nhân viên tham gia vào chương trình hướng dẫn ứng xử kinh doanh (BCG) hàng năm. Hơn 600 nhà cung cấp được đào tạo về đạo đức công nghệ và 100% nhà cung cấp của IBM được thu hút thực hiện các hoạt động về trách nhiệm xã hội và môi trường, đạo đức và lập kế hoạch rủi ro năm 2023.

Cũng theo ông Thành, với AI – mỗi doanh nghiệp sẽ có một định nghĩa khác nhau về sử dụng AI có trách nhiệm.

Chẳng hạn với Microsoft, AI có trách nhiệm là cách tiếp cận để phát triển, đánh giá và triển khai các hệ thống AI theo cách an toàn, đáng tin cậy và có trách nhiệm. Trong khi, Google lại xem xét tác động xã hội của sự phát triển và quy mô của các công nghệ như AI, bao gồm cả tác hại và lợi ích tiềm ẩn.

Còn IBM đã xây dựng bộ nguyên tắc hướng dẫn thiết kế, phát triển, triển khai và sử dụng AI. Họ xây dựng niềm tin vào các giải pháp AI có tiềm năng trao quyền cho các tổ chức và các bên liên quan.

“Tuy nhiên, điểm chung mà các doanh nghiệp đang hướng tới hiện nay đều tập trung vào việc xây dựng các công cụ để đảm bảo rằng AI hoạt động đúng với giá trị đạo đức, không gây hại, và mang lại lợi ích cho xã hội”- ông Thành nhấn mạnh.

Nói về sử dụng AI, ông Jeremy Luna, Tùy Viên báo chí Tổng lãnh sự quán Hoa Kỳ tại TP.HCM- đồng thời là đơn vị tài trợ khóa học cũng bày tỏ: “Khi chúng ta khai thác sức mạnh của AI, điều quan trọng là phải bảo đảm công nghệ này được phát triển và ứng dụng một cách có trách nhiệm”.

Hình thành hệ sinh thái sử dụng AI có trách nhiệm tại Việt Nam

Theo các giảng viên, tại Việt Nam, “Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng Trí tuệ nhân tạo đến năm 2030” tại Quyết định số 127/QĐ-TTg của Thủ tướng Chính phủ ngày 26-01-2021 đã nhấn mạnh đến vấn đề nâng cao năng lực về đạo đức, quản trị rủi ro và chính sách AI.

Dù vậy, nhìn sâu vào các doanh nghiệp, bà Trần Vũ Hà Minh, cố vấn về Trí tuệ Nhân tạo có trách nhiệm tại FPT, Nhà sáng lập Humane-AI Asia cho hay: “Sự quan tâm, xây dựng và ứng dụng AI có trách nhiệm của các doanh nghiệp Việt còn hạn chế”.

Vì thế, theo bà Hà Minh, những khoá học về đạo đức AI là cần thiết, nhằm hướng tới xây dựng nguồn nhân lực phát triển AI có trách nhiệm cho Việt Nam. Đây chính là tiền đề quan trọng để hình thành mạng lưới chuyên gia, góp phần hỗ trợ chính sách và nâng cao năng lực phản ứng với các thách thức công nghệ trong thời gian tới.

Các chuyên gia tại khóa học còn cho rằng: AI cần được thiết kế và vận hành theo những nguyên tắc đạo đức rõ ràng, nếu con người không muốn phải đối mặt với nguy cơ thiên lệch về thuật toán, xâm phạm quyền riêng tư, mất kiểm soát dữ liệu, bản quyền và nhiều hệ lụy khó lường về an sinh xã hội – pháp lý.

Về vấn đề này, ông Nguyễn Trần Minh Quân, Giám đốc Pháp chế Hiệp hội Blockchain Việt Nam và ông Jeffery Recker, Giám đốc điều hành Babl AI – một trong những tổ chức hàng đầu tại Mỹ trong việc đảm bảo các hệ thống AI tuân thủ các quy định và chuẩn mực đạo đức quốc tế, đã đề cập đến các tiêu chuẩn Đạo đức AI của UNESCO, nguyên tắc AI của OECD, tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST), cho đến các sắc lệnh hành pháp mới nhất do Tổng thống Hoa Kỳ ban hành.

Từ đó, mong muốn mang đến góc nhìn rộng mở cho doanh nghiệp Việt trong vấn đề xây dựng quy tắc đạo đức cho AI.

Ông Jeffery Recker chỉ ra thực trạng: “Trong khi AI đang được triển khai một cách rộng khắp trên toàn cầu, nhiều tổ chức và doanh nghiệp lại gặp rắc rối do thiếu sự chuẩn bị cần thiết về đạo đức và quản trị rủi ro. Thực trạng này không khác gì việc chữa cháy sau khi ngọn lửa đã bùng phát, thay vì chủ động thiết lập hệ thống phòng ngừa từ đầu”

Trên cơ sở đó, ông Jeffery Recke đã khuyến nghị các tổ chức cần chủ động triển khai lộ trình tuân thủ ngay từ bây giờ. Các lộ trình gồm các bước như: tạo một danh mục AI; đánh giá rủi ro của các công cụ AI; đảm bảo có sự chấp thuận từ cấp cao nhất; thực hiện phân tích thực trạng hiện tại và các yêu cầu pháp lý, từ đó xác định lộ trình cải thiện phù hợp…



https%3A%2F%2Fplo.vn%2Fvi-sao-cac-doanh-nghiep-lon-tren-the-gioi-phai-xay-dung-dao-duc-cho-ai-post850097.html

- Advertisement -spot_img

More articles

- Advertisement -spot_img

Latest article