Cảnh báo nguy cơ rò rỉ tài sản sở hữu trí tuệ và chiến lược khi sử dụng ChatGPT
2.625 người trưởng thành tại Mỹ đã tham gia khảo sát do Reuters thực hiện từ ngày 11/7 đến 17/7. Kết quả cho thấy, khoảng 28% thường dùng ChatGPT lúc làm việc, chỉ 22% được công khai cho phép dùng công cụ bên ngoài. Ngược lại, khoảng 10% nói bị cấm sử dụng các công cụ AI bên ngoài, còn 25% không biết công ty có chính sách liên quan không.
ChatGPT là ứng dụng tăng trưởng nhanh nhất lịch sử sau khi ra mắt tháng 11/2022. Nó gây ra cả sự phấn khích lẫn lo sợ. Nhà phát triển OpenAI gặp rắc rối trên toàn cầu, đặc biệt tại châu Âu, nơi hành vi thu thập dữ liệu quy mô lớn vấp phải chỉ trích từ nhà quản lý.
Nhân viên của các công ty khác có thể đọc được những đoạn trao đổi trên ChatGPT, trong khi AI có khả năng tái sản xuất dữ liệu mà nó hấp thụ trong quá trình đào tạo, gây lo ngại rò rỉ thông tin độc quyền.
Ben King, Phó Chủ tịch phụ trách Tín nhiệm khách hàng tại hãng bảo mật Okta cho rằng, mọi người không hiểu cách dữ liệu được sử dụng khi họ dùng AI tạo sinh. Với doanh nghiệp, đây là điều rất quan trọng vì người dùng không có hợp đồng với nhiều dịch vụ AI. Chúng chỉ đơn giản là dịch vụ miễn phí, vì vậy doanh nghiệp không thể đánh giá rủi ro theo quy trình thông thường.
OpenAI từ chối bình luận khi được Reuters hỏi về tác động nếu nhân viên dùng ChatGPT, song nhấn mạnh dữ liệu của đối tác doanh nghiệp không được dùng để đào tạo chatbot trừ khi được cho phép.
Khi dùng chatbot Bard của Google, nó sẽ thu thập dữ liệu như văn bản, vị trí và thông tin hữu ích khác. Google cho phép người dùng xóa hoạt động quá khứ khỏi tài khoản và yêu cầu gỡ nội dung nạp vào AI.
Một nhân viên của ứng dụng hẹn hò Tinder tiết lộ, đồng nghiệp dùng ChatGPT cho các công việc vô hại như viết email mời tham dự sự kiện nhóm, tạm biệt khi ai đó nghỉ việc hoặc tìm kiếm nói chung, ngay cả khi công ty không chính thức cho phép.
Tháng 5/2023, Samsung Electronics cấm nhân viên toàn cầu sử dụng ChatGPT và các công cụ AI tương tự sau khi phát hiện một nhân viên vô tình tải mã nhạy cảm lên nền tảng. Tháng 6/2023, Alphabet cảnh báo nhân viên về cách họ dùng chatbot, bao gồm cả Google Bard.
Chia sẻ với Reuters, một số công ty cho biết họ đang áp dụng ChatGPT và nền tảng khác nhưng vẫn nâng cao cảnh giác. Người phát ngôn Coca Cola cho biết đã bắt đầu thử nghiệm và tìm hiểu về tác dụng của AI trong hoạt động nội bộ. Hãng gần đây giới thiệu phiên bản Coca Cola ChatGPT cho nhân viên. Nhà sản xuất gia vị Tate & Lyle cũng đang dùng thử ChatGPT và tìm cách sử dụng an toàn thông qua hàng loạt thử nghiệm. Trong khi đó, vài nhân viên nói rằng họ không thể truy cập nền tảng trên máy tính công ty. Một nhân viên giấu tên của P&G chia sẻ ChatGPT bị chặn hoàn toàn trên mạng văn phòng.
Paul Lewis, Giám đốc an toàn thông tin của hãng bảo mật Nominet nhận xét doanh nghiệp có lí do chính đáng để lo ngại. Theo ông, mọi người được hưởng lợi từ nâng cao năng suất lao động nhưng thông tin không hoàn toàn an toàn và có thể bị lộ. Những “lời nhắc độc hại” có thể bị lợi dụng để chatbot AI tiết lộ thông tin nhạy cảm. Vì thế, cần phải tiến hành sử dụng một cách thận trọng.
Gia Minh