Rủi ro an toàn thông tin từ AI tạo sinh và vấn đề về quyền riêng tư

14:00 | 09/05/2024 | CHÍNH SÁCH - CHIẾN LƯỢC
Trong xu thế đổi mới sáng tạo hiện nay cùng với sự tiến bộ không ngừng của trí tuệ nhân tạo (AI), công nghệ AI tạo sinh (generative AI) đã mở ra một tầm nhìn mới đầy hứa hẹn. Từ việc tạo ra văn bản, hình ảnh và âm thanh đến các hình thức sáng tạo khác, AI tạo sinh đã vượt qua các ranh giới truyền thống và mở rộng phạm vi khả năng sáng tạo của con người. Tuy nhiên, cũng như bất kỳ tiến bộ công nghệ nào khác, sự phát triển này không diễn ra mà không phải đối mặt với những thách thức nhất định. Trong bài báo này, tác giả sẽ trình bày về các rủi ro đối với an toàn thông tin, đồng thời phân tích những vấn đề liên quan đến quyền riêng của công nghệ AI tạo sinh.

TỔNG QUAN VỀ AI TẠO SINH

AI tạo sinh đã nhanh chóng trở thành một trong những xu hướng quan trọng trong lĩnh vực AI ngày nay, với khả năng tạo ra nội dung sáng tạo và đa dạng. Được biết đến như một tập hợp các mô hình học máy mạnh mẽ, AI tạo sinh có khả năng tạo ra các tác phẩm văn bản, hình ảnh, âm thanh và video mới dựa trên dữ liệu đầu vào. Nhờ vào việc sử dụng mạng đối nghịch tạo sinh, hay còn gọi là mạng GAN (Generative Adversarial Network) và các kiến thức trong lĩnh vực học sâu, AI tạo sinh có thể “học” từ các dữ liệu đầu vào để tạo ra những sản phẩm mới và có tính sáng tạo.

Cách hoạt động của AI tạo sinh tập trung vào việc tìm ra các mẫu và xu hướng từ dữ liệu đầu vào và sau đó sử dụng những thông tin này để tạo ra nội dung mới mà có thể hoặc không giống với dữ liệu gốc. Kiến trúc mô hình GAN là một phần quan trọng của AI tạo sinh, bao gồm hai mô hình cạnh tranh: mô hình tạo sinh và mô hình phân biệt. Dựa trên dữ liệu đào tạo có sẵn, mô hình tạo sinh thực hiện việc tạo ra nội dung với mục tiêu chặt chẽ hóa thông tin để đạt được sự tương đồng cao với các ví dụ trong tập dữ liệu đó. Tiếp đến, một mô hình phân biệt được áp dụng để đánh giá kết quả tạo ra bằng cách đo lường khả năng mẫu thử nghiệm thuộc về tập dữ liệu gốc, thay vì xuất phát từ mô hình tạo sinh. Từ những kết quả kiểm tra này, mô hình liên tục điều chỉnh và tối ưu hóa để nội dung tạo ra có khả năng tương đương với dữ liệu đào tạo ban đầu của mô hình tạo sinh [1].

Trong vòng một năm trở lại đây, AI tạo sinh đã trở thành một công cụ phổ biến trên Internet. Với sự ra mắt của ChatGPT, một công cụ AI tạo sinh mạnh mẽ được OpenAI giới thiệu vào tháng 11/2022, đã gây ra sự chấn động trong cộng đồng công nghệ AI và học máy [2]. Bên cạnh đó, sự tiến bộ nhanh chóng trong các công nghệ AI như xử lý ngôn ngữ tự nhiên đã làm cho AI tạo sinh trở nên dễ tiếp cận đối với người dùng và những người sáng tạo nội dung quy mô lớn. Các tập đoàn công nghệ lớn đã nhanh chóng tham gia vào cuộc chạy đua này, với Google, Microsoft, Amazon, Meta và nhiều tên tuổi khác đều ra mắt các công cụ AI tạo sinh riêng trong vài tháng ngắn ngủi. Một báo cáo mới từ công ty phần mềm đám mây Salesforce (Mỹ) đã tiết lộ rằng có tới 67% các nhà quản lý cao cấp trong lĩnh vực công nghệ thông tin đang đặt AI tạo sinh vào danh sách ưu tiên cho phát triển doanh nghiệp của họ trong khoảng thời gian 18 tháng tới, trong đó một phần ba (33%) xem đây là mục tiêu quan trọng hàng đầu [3].

Sự phổ biến của AI tạo sinh trong thời gian gần đây đã mở ra cơ hội mới cho nhiều lĩnh vực, như sáng tạo nghệ thuật, tiếp thị và giáo dục. Khả năng tạo ra nội dung tự động, nhanh chóng và có tính sáng tạo đã giúp các ngành công nghiệp tận dụng hiệu quả hơn sự phát triển của công nghệ này. Từ việc tạo ra nội dung quảng cáo hấp dẫn đến việc tạo ra hình ảnh thiết kế mới, AI tạo sinh đã góp phần thay đổi cách chúng ta tương tác với các khía cạnh khác nhau của cuộc sống hàng ngày.

MỐI ĐE DỌA CỦA AI TẠO SINH ĐỐI VỚI AN TOÀN THÔNG TIN

Mặc dù AI tạo sinh mang đến những tiềm năng vượt trội trong việc sáng tạo và tạo nội dung, nhưng đồng thời cũng mở ra những cơ hội mà tin tặc và các tác nhân đe dọa có thể lợi dụng để thực hiện các cuộc tấn công mạng độc hại. Công nghệ AI tạo sinh có thể dẫn đến những rủi ro nghiêm trọng liên quan đến an toàn thông tin, các nguy cơ này cần được xem xét và định hình để bảo vệ cả cá nhân và tổ chức khỏi những hậu quả không mong muốn. Những rủi ro phát sinh từ khả năng của AI tạo sinh tạo ra nội dung giả mạo, gây ảnh hưởng đến tính xác thực, sự tin cậy và quyền riêng tư của người dùng. Các cuộc tấn công mạng sử dụng AI tạo sinh đã trở thành một thách thức lớn đối với an toàn thông tin và quyền riêng tư. Dưới đây là một số khía cạnh rủi ro đáng chú ý.

Tạo nội dung giả mạo

Một trong những lợi dụng chính của công nghệ AI tạo sinh trong tấn công mạng là tạo ra nội dung giả mạo. Công nghệ Deepfake, sử dụng mô hình học máy và AI tạo sinh, có khả năng tạo ra các video, hình ảnh và âm thanh giả mạo với độ chân thực đáng kể. Điều này có thể dẫn đến việc tạo ra thông tin sai lệch, xuyên tạc thông điệp và gây hiểu lầm đối với công chúng. Các tấn công này có thể ảnh hưởng đến danh tiếng, tạo ra sự hoang mang trong xã hội và thậm chí gây ra hậu quả hết sức nghiêm trọng. Thông tin sai lệch hoặc nội dung giả mạo có thể được sử dụng để phỉ báng, xuyên tạc hoặc tạo ra các thông tin gian lận với mục đích làm hại người khác. Điều này không chỉ ảnh hưởng đến danh tiếng cá nhân, mà còn có thể gây hại đến quyền riêng tư và tạo ra những vấn đề pháp lý nghiêm trọng.

Lừa đảo và xâm phạm quyền riêng tư

Các cuộc tấn công lừa đảo và xâm phạm quyền riêng tư đã tìm thấy một con đường mới để tinh vi hóa với sự hỗ trợ của công nghệ AI tạo sinh. Kẻ tấn công có thể tạo ra các tin nhắn, email, thậm chí cuộc trò chuyện tự động bằng cách sử dụng mô hình AI tạo sinh để mô phỏng giọng điệu và ngôn ngữ của người mục tiêu. Điều này làm cho các cuộc tấn công lừa đảo trở nên khó nhận biết hơn, khiến người nhận dễ bị lừa và tiết lộ thông tin cá nhân quan trọng.

Tấn công vào hệ thống thông tin

Công nghệ AI tạo sinh cũng có thể được sử dụng để tạo ra các loại mã độc, mã nguồn và chương trình độc hại. Kẻ tấn công có thể tạo ra các loại phần mềm độc hại mới tinh vi với các khả năng che dấu và tránh bị phát hiện bởi các công cụ bảo mật. Bên cạnh đó, việc tạo ra các email và trang web giả mạo bằng cách sử dụng AI tạo sinh có thể làm cho các cuộc tấn công lừa đảo trở nên phức tạp hơn và khó phân biệt.

Có thể thấy, mặc dù AI tạo sinh mang lại những tiềm năng to lớn, nhưng nó cũng được ví như là con dao hai lưỡi, mở ra cơ hội cho các tấn công mạng tinh vi và phức tạp hơn. Việc lợi dụng AI tạo sinh để tạo ra thông tin giả mạo, thực hiện các cuộc tấn công lừa đảo và xâm phạm quyền riêng tư đã tạo ra mối đe dọa lớn đối với an ninh thông tin và sự riêng tư của mọi người.

VẤN ĐỀ VỀ QUYỀN RIÊNG TƯ KHI SỬ DỤNG AI TẠO SINH

Trong bối cảnh phát triển mạnh mẽ của công nghệ AI tạo sinh, việc cung cấp dữ liệu riêng tư cho các công cụ AI đang trở nên ngày càng phổ biến. Tuy nhiên, sự tăng cường này đồng thời cũng tiềm ẩn nhiều rủi ro về quyền riêng tư, đặc biệt là khi người dùng không có ý thức đủ để bảo vệ các thông tin nhạy cảm của họ.

Rủi ro đối với dữ liệu cá nhân

Việc cung cấp dữ liệu cá nhân cho các công cụ AI tạo sinh có thể dẫn đến nguy cơ bị lộ thông tin cá nhân. Dữ liệu này bao gồm thông tin về địa chỉ, tài khoản ngân hàng, sở thích cá nhân và nhiều thông tin khác. Khi không được bảo mật đúng cách, nó có thể bị tiết lộ cho bên thứ ba không mong muốn, gây hậu quả nghiêm trọng cho quyền riêng tư và an ninh của người dùng.

Rủi ro đối với dữ liệu doanh nghiệp

Các doanh nghiệp cũng đang đối mặt với nguy cơ lớn khi cung cấp dữ liệu nhạy cảm cho các công cụ AI tạo sinh. Dữ liệu doanh nghiệp bao gồm thông tin về khách hàng, chiến lược kinh doanh, dự án nghiên cứu và các dữ liệu quan trọng khác. Khi không có biện pháp bảo mật thích hợp, dữ liệu này có thể bị đánh cắp hoặc sử dụng một cách trái phép, gây thiệt hại nghiêm trọng cho hoạt động kinh doanh và uy tín của doanh nghiệp.

Ý thức bảo vệ dữ liệu

Một vấn đề quan trọng liên quan đến việc cung cấp dữ liệu cho AI tạo sinh là sự thiếu ý thức bảo vệ dữ liệu của người dùng và doanh nghiệp. Việc chia sẻ dữ liệu cá nhân và dữ liệu doanh nghiệp cần được thực hiện một cách cẩn trọng và thông minh, đảm bảo rằng các biện pháp bảo mật và quản lý đã được áp dụng. Vấn đề quyền riêng tư cũng mở ra câu hỏi về trách nhiệm của các tổ chức và nhà phát triển công nghệ khi triển khai AI tạo sinh. Sự tồn tại của những mô hình có khả năng tạo ra nội dung giả mạo và không chính xác đặt ra thách thức cho việc kiểm soát thông tin và bảo vệ quyền riêng tư của mọi người.

Trong bối cảnh người dùng và doanh nghiệp chưa đủ nhận thức về tầm quan trọng của việc bảo vệ dữ liệu riêng tư, rủi ro về việc bị lộ thông tin quan trọng và nhạy cảm càng trở nên đáng báo động. Để giải quyết vấn đề này, việc tăng cường giáo dục và nhận thức về quyền riêng tư là cần thiết, cùng với việc áp dụng các biện pháp bảo mật hiệu quả để đảm bảo an toàn cho dữ liệu.

KẾT LUẬN

Bài báo đã phân tích về các rủi ro an toàn thông tin do công nghệ AI tạo sinh tạo ra và đề cập đến vấn đề quan trọng về quyền riêng tư trong việc sử dụng công nghệ này. Để đối phó với những thách thức này, người dùng cần nhận thức cao về các mối nguy cơ và áp dụng các biện pháp bảo mật thích hợp để đảm bảo an toàn thông tin và bảo vệ quyền riêng tư. Sự phối hợp từ cá nhân đến doanh nghiệp và chính quyền, sẽ đóng vai trò quan trọng trong việc định hình tương lai của công nghệ AI tạo sinh, đảm bảo sự phát triển mạnh mẽ và bền vững trong thời đại chuyển đổi số hiện nay.

TÀI LIỆU THAM KHẢO

[1]. T. T. T. Vân, “Thách thức của Deepfake và vấn đề thực thi pháp luật,” 19/09/2022. [Trực tuyến]. Địa chỉ: https://antoanthongtin.vn/chinh-sach---chien-luoc/thach-thuc-cua-deepfake-va-van-de-thuc-thi-phap-luat-108352. [Đã truy cập 17/08/2023].

[2]. G. Sebastian, "Do ChatGPT and Other AI Chatbots Pose a Cybersecurity Risk?: An Exploratory Study," 06/2023. [Trực tuyến]. Địa chỉ: https://www.igi-global.com/article/do-chatgpt-and-other-ai-chatbots-pose-a-cybersecurity-risk/320225. [Đã truy cập 17/08/2023].

[3]. "IT Leaders Call Generative AI a ‘Game Changer’ but Seek Progress on Ethics and Trust," 06/03/2023. [Trực tuyến]. Địa chỉ: IT Leaders Call Generative AI a ‘Game Changer’ but Seek Progress on Ethics and Trust. [Đã truy cập 17/08/2023].

Châu Minh Khánh (Cục An toàn thông tin, Bộ Thông tin và Truyền thông)

Tin cùng chuyên mục

Tin mới