Singapore xây dựng các hướng dẫn kỹ thuật để bảo mật hệ thống AI
Ông Janil Puthucheary, Bộ trưởng Bộ Truyền thông và Thông tin Singapore cho biết: Singapore có kế hoạch ban hành hướng dẫn kỹ thuật cung cấp "biện pháp thực tế" để tăng cường bảo mật cho các công cụ và hệ thống AI. Cơ quan An ninh mạng Singapore (CSA) dự kiến sẽ công bố dự thảo Hướng dẫn kỹ thuật bảo mật hệ thống AI để tham vấn công chúng vào cuối tháng 7/2024.
Ngày 3/7 vừa qua, ông Puthucheary cho biết trong bài phát biểu tại Hội nghị thượng đỉnh về bảo mật AI của Hiệp hội các chuyên gia bảo mật thông tin (AiSP) rằng các hướng dẫn kỹ thuật mới có thể được áp dụng cùng với các quy trình bảo mật hiện có mà các tổ chức thực hiện để giải quyết các rủi ro tiềm ẩn trong hệ thống AI. Thông qua các hướng dẫn kỹ thuật, CSA hy vọng sẽ cung cấp tài liệu tham khảo hữu ích cho các chuyên gia an ninh mạng đang tìm cách nâng cao tính bảo mật cho các công cụ AI của họ.
“Trong vài năm qua, AI đã phát triển nhanh chóng và được triển khai ở nhiều lĩnh vực khác nhau. Điều này đã tác động đáng kể đến bối cảnh an ninh mạng. Sự phát triển và ứng dụng AI nhanh chóng này đã khiến thế giới phải đối mặt với nhiều rủi ro mới như tấn công sử dụng học máy, cho phép kẻ tấn công xâm phạm chức năng của mô hình AI" - ông Puthucheary chia sẻ.
Ông Puthucheary chỉ ra cách nhà cung cấp bảo mật McAfee thành công trong việc xâm nhập Mobileye bằng cách thay đổi các biển báo giới hạn tốc độ mà hệ thống AI được đào tạo để nhận dạng. AI đang tạo ra những rủi ro bảo mật mới và các tổ chức khu vực công và tư nhân phải nỗ lực để hiểu bối cảnh mối đe dọa đang phát triển này. Ông cho biết thêm rằng CIO của Chính phủ Singapore, Cơ quan Công nghệ Chính phủ (GovTech), đang phát triển các kịch bản để mô phỏng các cuộc tấn công tiềm ẩn vào các hệ thống AI để nắm bắt cách chúng có thể tác động đến bảo mật của các nền tảng như vậy. Bằng cách làm như vậy, điều này sẽ giúp chính phủ có thể đưa ra các biện pháp bảo vệ phù hợp.
Những nỗ lực để bảo vệ hệ thống, chống lại các mối đe dọa hiện tại phải tiếp tục, vì AI dễ bị tổn thương trước các mối đe dọa mạng "cổ điển", chẳng hạn như những mối đe dọa nhắm vào quyền riêng tư dữ liệu. Việc áp dụng AI ngày càng phổ biến sẽ mở rộng bề mặt tấn công mà dữ liệu có thể bị lộ, xâm phạm hoặc rò rỉ. AI có thể được khai thác để tạo ra phần mềm độc hại ngày càng tinh vi, chẳng hạn như WormGPT, rất khó phát hiện đối với các hệ thống bảo mật hiện tại. Ngoài ra, các nhóm an ninh mạng cần có những kỹ năng mới ngay cả khi họ đang phải căng mình để quản lý các hệ thống cũ. AI cũng có thể được tận dụng để cải thiện khả năng phòng thủ mạng và trang bị cho các chuyên gia an ninh khả năng xác định rủi ro nhanh hơn, ở quy mô lớn và chính xác hơn. Các công cụ bảo mật được hỗ trợ bởi học máy có thể giúp phát hiện các bất thường và khởi chạy phòng thủ tự động để giảm thiểu các mối đe dọa tiềm ẩn.
Tại Hội nghị, AiSP cho biết đang thành lập một nhóm quan tâm đặc biệt về AI, trong đó các thành viên có thể trao đổi hiểu biết về các phát triển và năng lực. Được thành lập vào năm 2008, AiSP tập trung vào việc thúc đẩy năng lực kỹ thuật và lợi ích của cộng đồng an ninh mạng Singapore.
Trước đó, vào tháng 4, Trung tâm An ninh AI của Cơ quan An ninh Quốc gia Hoa Kỳ đã phát hành thông tin về Triển khai Hệ thống AI an toàn, trong đó nêu ra các hướng dẫn tốt nhất về việc triển khai và vận hành hệ thống AI. Các hướng dẫn này nhằm mục đích tăng cường tính toàn vẹn và khả dụng của các hệ thống AI và tạo ra các biện pháp giảm thiểu các lỗ hổng đã biết trong các hệ thống AI. Tài liệu này cũng phác thảo các phương pháp và biện pháp kiểm soát để phát hiện và ứng phó với các hoạt động độc hại chống lại các hệ thống AI và dữ liệu liên quan.
Quốc Trung
(theo zdnet)