Home Ứng dụng AI Vào công việc vũ khí hay tấm khiên phòng thủ?

vũ khí hay tấm khiên phòng thủ?

0

AI định hình lại không gian an ninh mạng quốc gia

z7699634803660 9c070f063b823521fbb63c7515de8611 20260407115908 1409
Ông Phạm Tiến Dũng, Phó Thống đốc Ngân hàng Nhà nước – Phó Chủ tịch Hiệp hội An ninh mạng quốc gia. Ảnh: TCANM.

Tại hội thảo hội thảo “AI for Security” do Hiệp hội An ninh mạng quốc gia (NCA) phối hợp với Check Point Software Technologies tổ chức mới đây, ông Phạm Tiến Dũng, Phó Thống đốc Ngân hàng Nhà nước – Phó Chủ tịch Hiệp hội An ninh mạng quốc gia cho biết trong những năm gần đây, Trí tuệ nhân tạo (AI) đang phát triển nhanh chóng và từng bước trở thành hạ tầng số chiến lược của các quốc gia, kéo theo yêu cầu ngày càng cao về bảo đảm an ninh, an toàn cho các hệ thống AI, cũng như việc ứng dụng AI trong hoạt động bảo vệ an ninh mạng.

Ông nhận định, AI không chỉ là động lực thúc đẩy phát triển kinh tế, xã hội mà còn đang làm thay đổi cách thức vận hành và quản trị của các tổ chức. Trong lĩnh vực tài chính – ngân hàng, AI đã và đang nghiên cứu, ứng dụng trong nhiều hoạt động như đánh giá, chấm điểm tín dụng, phát hiện gian lận, tự động hóa quy trình và hỗ trợ khách hành, qua đó nâng cao hiệu quả và khả năng tiếp cận dịch vụ của khách hàng.

Phó Thống đốc NHNN cho biết, AI cũng đang làm thay đổi sâu sắc các nguy cơ, thách thức an ninh mạng toàn cầu. Việc các đối tượng tấn công khai thác AI để tự động hóa quy trình, mở rộng quy mô và tăng mức độ tinh vi của các chiến dịch tấn công đã khiến môi trường an ninh mạng trở nên phức tạp, đồng thời đặt ra thách thức lớn hơn đối với các phương thức phòng vệ truyền thống.

“Bản thân các hệ thống AI cũng làm phát sinh thêm các thách thức đối với công tác quản trị và đảm bảo an ninh, an toàn. Một đặc điểm đáng chú ý của nhiều mô hình hiện nay là tính khó giải thích, khó kiểm chứng, khó truy vết đầy đủ. Đi kèm với đó là các rủi ro liên quan đến chất lượng dữ liệu huấn luyện đầu vào, sự thiên vị của mô hình do thông tin không chính xác, gây ra nguy cơ lộ lọt thông tin trong quá trình triển khai và vận hành”, ông Phạm Tiến Dũng nêu vấn đề.

Trong khi đó, Đại tá, TS Nguyễn Hồng Quân, Phó Cục trưởng Cục An ninh mạng và Phòng, chống tội phạm sử dụng công nghệ cao, Bộ Công an; Trưởng Ban An ninh dữ liệu và Bảo vệ dữ liệu cá nhân, Hiệp hội An ninh mạng quốc gia, nhận định, AI hiện nay đang đặt ra nhiều thách thức chiến lược trong bảo đảm an ninh quốc gia.

Nguyễn Hồng Quân cho biết các hình thức lừa đảo hiện nay ngày càng được cá nhân hóa, công nghệ deepfake trở nên khó nhận diện hơn, trong khi mã độc có thể tự thích nghi để né tránh hệ thống phòng thủ. Đáng chú ý, tội phạm mạng đang dịch chuyển từ mô hình hoạt động đơn lẻ sang mô hình tổ chức chuyên nghiệp, có tính hệ thống và mang tính công nghiệp hóa.

Trong bối cảnh đó, AI không còn chỉ là một công cụ hỗ trợ công nghệ, mà đang trở thành yếu tố tác động trực tiếp đến không gian an ninh mạng và rộng hơn là an ninh quốc gia. Những vấn đề như bảo vệ chủ quyền dữ liệu, giảm phụ thuộc vào nền tảng công nghệ nước ngoài, cũng như bảo vệ chính các hệ thống AI trước nguy cơ bị tấn công đang trở thành thách thức lớn đối với các quốc gia.

“AI không chỉ là công cụ, mà đang trở thành một yếu tố định hình lại không gian an ninh mạng và an ninh quốc gia. Việc chủ động nắm bắt, làm chủ và bảo đảm an toàn cho các công nghệ AI sẽ là yếu tố quyết định đối với sự phát triển bền vững và an toàn của mỗi quốc gia trong tương lai”, Đại tá Nguyễn Hồng Quân nhấn mạnh.

vu duy hien tra loi hop bao 20260408022131 1411

Hai mặt của AI: Dùng AI để bảo vệ và bảo vệ AI

Theo đại diện Bộ Công an, khi nói đến AI trong an ninh mạng cần nhìn rõ hai khía cạnh song song. Một là bảo vệ chính các hệ thống AI; hai là sử dụng AI như một công cụ để ngăn chặn, phát hiện và ứng phó với các hoạt động tấn công mạng.

Về bản chất, AI đang tham gia ngày càng sâu vào quá trình ra quyết định, nên có thể hình dung như một “bộ não” thứ hai của con người và tổ chức. Nếu “bộ não” đó bị tấn công, bị đầu độc dữ liệu hoặc bị làm sai lệch, nó sẽ dẫn đến các quyết định sai và kéo theo rủi ro rất lớn trong vận hành.

Đại tá Nguyễn Hồng Quân nhấn mạnh rằng yêu cầu đầu tiên là phải bảo đảm hệ thống AI vận hành an toàn, đủ tin cậy để hỗ trợ đưa ra quyết định đúng và nhanh. Theo ông, nhanh là cần thiết, nhưng nhanh mà sai thì có thể dẫn đến hậu quả nghiêm trọng, thậm chí là “thảm họa”. Ở chiều ngược lại, chính năng lực xử lý dữ liệu và nhận diện mẫu tấn công với tốc độ rất cao của AI lại mở ra khả năng mới cho công tác phòng, chống tấn công mạng, giúp việc phát hiện và ứng phó sự cố diễn ra nhanh hơn nhiều so với trước.

“Với doanh nghiệp, đặc biệt là doanh nghiệp nhỏ và vừa, thứ tự ưu tiên hợp lý trong giai đoạn đầu không hẳn là chạy theo các công cụ AI phức tạp để phục vụ bảo mật, mà trước hết phải bảo đảm bản thân công cụ AI được đưa vào sử dụng là công cụ an toàn. Về lâu dài sẽ cần có những quy định, tiêu chí hoặc chuẩn mực rõ ràng hơn để người dùng và doanh nghiệp biết đâu là công cụ AI đủ mức an toàn để ứng dụng trong hoạt động sản xuất, kinh doanh”, đại tá Nguyễn Hồng Quân khẳng định.

Đồng quan điểm, ông Vũ Duy Hiền, Phó Chánh văn phòng kiêm Tổng Thư ký NCA, nhìn nhận rằng, có thực trạng nhiều tổ chức đang dồn nguồn lực để ứng dụng công nghệ bảo vệ hệ thống, nhưng lại chưa dành sự quan tâm tương xứng cho việc bảo vệ chính “bộ não công nghệ” là các hệ thống AI.

“Trong bối cảnh nguồn lực của nhiều tổ chức tại Việt Nam còn hạn chế, ranh giới giữa “dùng AI để bảo mật” và “bảo mật cho AI” là rất mong manh; nếu không xác định rõ thứ tự ưu tiên, đơn vị triển khai có thể vô tình tạo ra lỗ hổng ngay trong cơ chế phòng thủ của mình”, ông Vũ Duy Hiền nhận định

Ở góc độ doanh nghiệp công nghệ, bà Ruma Balasubramanian, Chủ tịch khu vực châu Á – Thái Bình Dương và Nhật Bản của Check Point Software Technologies, cho biết những mối đe dọa nhắm vào AI đang có quy mô và tốc độ lớn hơn đáng kể so với nhiều kiểu đe dọa truyền thống.

Theo bà, các rủi ro đặc thù với AI có thể chia thành một số nhóm chính, trong đó nổi bật là nguy cơ dữ liệu bị đầu độc, nguy cơ bị chèn lệnh hoặc thao túng đầu vào khiến mô hình xử lý sai, và nguy cơ can thiệp vào quy trình làm việc có sự tham gia của AI.

Bà Ruma Balasubramanian cho rằng để đối phó với các rủi ro này, tổ chức không thể chỉ vá từng lỗ hổng riêng lẻ mà cần một cách tiếp cận toàn diện hơn. Trong đó, lớp bảo vệ đầu tiên là kiểm soát việc nhân sự sử dụng các công cụ AI trong môi trường làm việc, nhất là các công cụ AI cá nhân hoặc những nền tảng chưa được tổ chức kiểm kê đầy đủ.

Điều cốt lõi là phải biết tổ chức đang dùng những công cụ AI nào, công cụ nào đã được nhận diện, công cụ nào chưa được nhận diện, đồng thời xây dựng chính sách quản trị đi kèm và ngăn chặn nguy cơ rò rỉ dữ liệu trong quá trình sử dụng.

Lớp bảo vệ thứ hai, là bảo đảm các mô hình AI, các tác tử AI và các hệ thống vận hành liên quan hoạt động đúng với cách thức mà tổ chức thiết kế ban đầu. Nói cách khác, AI không chỉ cần mạnh mà còn phải có khả năng vận hành đúng mục tiêu, đúng quyền hạn và đúng kịch bản an toàn.

Từ đó, cách tiếp cận toàn diện theo hệ thống vẫn là phương án phù hợp nhất để giảm thiểu rủi ro cho toàn bộ tổ chức trước các mối đe dọa mới xuất hiện cùng với AI.



https%3A%2F%2Fnhadautu.vn%2Fhai-mat-cua-ai-vu-khi-hay-tam-khien-phong-thu-d104138.html

Exit mobile version