Chi phí, lợi ích của ứng dụng trí tuệ nhân tạo trong nhiệm vụ an ninh mạng
Tầm quan trọng của tự động hóa không phải là điều bị đánh giá quá cao mà là khả năng của các ứng dụng ML hay các mô hình AI khác để đạt được sự tin tưởng vào tự động hóa. Để đạt được thành công trong việc áp dụng AI trong an ninh mạng thì không nên tin tưởng một cách tuyệt đối.
Lượng dữ liệu để có thể phát hiện một cuộc tấn công hoặc mất mát do một cuộc tấn công, yêu cầu mức độ giám sát vượt quá khả năng mà một nhóm đội ngũ chuyên gia an ninh mạng có thể đạt được. Định nghĩa của phát hiện mối đe dọa và sự bất thường (threat and anomaly detection) là một thành phần của nhiệm vụ tự động hóa: tìm kiếm những ngoại lai trong tập dữ liệu - một nhiệm vụ lặp lại để xác định các mẫu.
Việc xác định các mẫu góp phần xây dựng các mô hình dự đoán nhằm phát hiện tấn công trước khi chúng xảy ra hay cung cấp hỗ trợ trong việc đưa ra quyết định khi tấn công diễn ra. Có rất nhiều ưu điểm khi sử dụng AI để tự động hóa một số nhiệm vụ an ninh mạng.
Các ứng dụng AI thường thu thập thông tin phân tích từ việc học không giám sát nhằm phát triển mô hình hay mạng nơ-ron, mang lại những kết quả hứa hẹn. Tuy nhiên, chúng lại thiếu khả năng đưa ra giải thích minh bạch cho từng quyết định.
Hai nhược điểm chính của ứng dụng AI trong an ninh mạng
Tự động hóa trong an ninh mạng gây ra sự tranh cãi đối với sự tin tưởng vào nó. Nếu mục đích của tự động hóa là giải phóng năng lượng giá trị của con người khỏi những nhiệm vụ lặp lại, tốn thời gian, nghĩa là cần có sự tin tưởng của người dùng đối với hệ thống và cần cho ra kết quả tốt hoặc tốt hơn khi đội ngũ con người thực hiện.
Có một giả định cơ bản rằng, việc tự động hóa được thực hiện khi có sự tin tưởng về việc hệ thống sẽ hoàn thành tốt nhiệm vụ. Tuy nhiên, nhiều lợi ích của những ứng dụng AI trong tự động hóa an ninh mạng thường không có khả năng tạo sự tin tưởng.
Sử dụng những ứng dụng AI trong hệ thống dự đoán và tự động an ninh mạng mang đến hai thách thức lớn để đạt được sự tin tưởng đối với tổ chức/doanh nghiệp và những bên liên quan cần được bảo vệ.
Thứ nhất, nhiều dự án triển khai an ninh mạng dự đoán dựa trên kỹ thuật học không giám sát hoặc mạng nơ-ron, những giải pháp hiện không thể đưa ra các giải thích cục bộ, trực quan cho con người.
Thứ hai, những ứng dụng AI cũng gia tăng các véctơ tấn công qua việc vô tình tạo ra những lỗ hổng mới mà tin tặc có thể khai thác. Tấn công vào các ứng dụng AI có hình thức khác với tấn công truyền thống. Thay vì tấn công vào payload, chúng cố gắng thay đổi hoặc ảnh hưởng đến hành vi của ứng dụng AI theo lợi ích của tin tặc.
Mặc dù đã có một số thành công trong nỗ lực phát triển cải tiến áp dụng những mô hình giải thích được, nhưng vẫn chưa thể thiết lập mức tin tưởng cao khi sử dụng AI trong tự động hóa an ninh mạng.
Chi phí ứng dụng AI trong an ninh mạng
Với 2 khía cạnh đối lập nhau là sự phù hợp của AI trong nhiều nhiệm vụ an ninh mạng và sự thiếu tin tưởng với công nghệ xa lạ trong những bối cảnh chưa xác định như hiện nay, có nghĩa là vẫn chưa thể quản lý AI khi sự tin tưởng vẫn chưa đủ. Từ đó cần một chiến lược quản lý khác cho AI, đặc biệt là trong an ninh mạng. Cần phải giám sát, đánh giá, truy cập và cải thiện các hệ thống AI liên tục, chứ không phải tin tưởng chúng.
Vì hiện tại vẫn chưa thể thực sự tin tưởng công cụ AI trong an ninh mạng để có thể đưa ra giải thích hay không bị ảnh hưởng bởi tấn công backdoor hoặc tấn công nhiễm độc dữ liệu, nên cần xem xét kỹ về nền tảng được sử dụng để luyện mô hình, bao gồm dữ liệu đầu vào, kết quả được đưa ra và các phép đo thành công.
Do đó, cần phải sử dụng các biện pháp bảo vệ khác để giám sát những ứng dụng AI mới nhất trong trung tâm SOC. Trong đó có việc thực hiện giám sát động song song hệ thống AI bằng cách khởi chạy một bản sao hệ thống trong môi trường được kiểm soát, như một cách đánh giá hiệu năng thực sự của hệ thống so với một hệ thống được bảo vệ trước hiện tượng Model Drift (hiệu năng dự đoán của mô hình suy giảm theo thời gian) và một số loại tấn công độc hại.
Có một thực tế đầy hứa hẹn là ngày càng có nhiều lựa chọn cho các hệ thống giám sát. Nhưng cũng như các tiến bộ đáng kể đã đạt được trong việc phát triển mô hình có thể giải thích được, điều đó vẫn chưa thể giải quyết được mọi vấn đề để xây dựng sự tin tưởng và chiến lược giám sát được sử dụng để bảo vệ ứng dụng AI vẫn sẽ có những vấn đề về bảo mật và sự tin tưởng. Chi phí thực của ứng dụng AI cũng cần phản ánh chi phí giám sát và bảo vệ nó.
Không hệ thống AI nào có thể tin tưởng
Vấn đề không phải là một số hệ thống AI có thể được tin tưởng và một số khác thì không (như việc một số người truy cập hệ thống có thể tin tưởng còn người khác thì không), mà vấn đề là không hệ thống AI nào có thể tin tưởng và cũng không thể cung cấp đầy đủ phương tiện xác minh rằng hệ thống có thể tin tưởng được, ngay cả khi hệ thống đưa ra những kết quả khả quan.
Vấn đề này xuất hiện trong các nhiệm vụ phân loại đơn giản do khối lượng dữ liệu khổng lồ của chúng, cần sử dụng rất nhiều nguồn lực để phân loại mỗi quyết định. Vấn đề này cũng xuất hiện trong những nhiệm vụ khó khăn hơn đó là thiết lập sự tin tưởng trong những mô hình học máy không giám sát và học sâu vì như đã trình bày, chỉ có hạn hẹp những lựa chọn để đưa ra lời giải thích.
Hiện tại, tiềm năng to lớn của AI trong an ninh mạng vẫn trong tình trạng phát triển chưa đủ hài lòng, phương tiện củng cố tin tưởng vào các ứng dụng AI còn hạn hẹp và có thể cần chi phí cao để phát triển và triển khai các tiến trình giám sát toàn diện để vận hành mà chưa tin tưởng. Tất nhiên, không thể nghi ngờ về tiềm năng của những ứng dụng tự động trong an ninh mạng áp dụng AI, câu hỏi là với chi phí nào để sẵn sàng khai thác tiềm năng của AI.
Tổ chức/doanh nghiệp được khuyến nghị rằng khi quyết định kết hợp các tính năng bảo mật tự động thông minh, cần phân bổ thời gian và nguồn lực để quản lý vòng đời của tính năng đó. Điều này có thể được thực hiện thông qua nhiều cách khác nhau, chẳng hạn thiết lập một đội liên ngành, bằng cách chỉ định một thành viên được đào tạo để cập nhật những phát triển và thách thức đối với khả năng giải thích của AI, hay bằng cách tham gia vào các hoạt động cộng đồng để phát triển nền tảng và các quy định.
Đây chỉ là một vài trong số nhiều lựa chọn để cải thiện việc đo lường và đánh giá các ứng dụng AI và nên được lựa chọn dựa theo cam kết sử dụng AI của tổ chức/doanh nghiệp.
Ví dụ, nếu một tổ chức/doanh nghiệp đang phát triển một hệ thống AI tại chỗ, thì nên có đội ngũ chuyên môn đầy đủ trong nhóm kỹ thuật để thành lập một nhóm phụ nhằm đánh giá nghiêm ngặt cách hệ thống được giám sát.
Nhưng nếu một doanh nghiệp đang triển khai một ứng dụng an ninh mạng AI được xây dựng từ trước, thì có thể sẽ phù hợp hơn khi đào tạo mở rộng cho một hoặc hai nhân viên. Xây dựng sự cảnh giác trong tiến trình giám sát và quản lý cho phép tổ chức/doanh nghiệp ứng dụng AI trong an ninh mạng mà không cần sự tin tưởng.
Quang Minh (Theo ComputerWeekly)