Tái tạo giọng nói bằng AI cho những người bị mất giọng
Giọng nói được AI tạo ra từ một ứng dụng điện thoại. Ứng dụng này được đào tạo bằng giọng nói thời thiếu niên dài 15 giây của bệnh nhân, sau đó, AI tổng hợp để tạo nên một giọng nói rất chân thực cho người bệnh. Nhờ vậy, bệnh nhân có thể nói hầu hết mọi điều.
Chỉ cần bệnh nhân gõ một vài từ hoặc câu vào ứng dụng điện thoại, ứng dụng sẽ đọc to câu nói ấy ngay lập tức. Các bác sĩ cho biết, nhờ công nghệ này, hàng triệu người bị đột quỵ, ung thư vòm họng hoặc các bệnh về thần kinh có thể được nói trở lại.
Công nghệ này có tên là Voice Engine, được công ty công nghệ OpenAI phát triển từ năm 2022 và thử nghiệm cùng một nhóm khách hàng cuối năm 2023. Phần mềm thể hiện khả năng hỗ trợ đọc, dịch nội dung giữa các ngôn ngữ khác nhau và tạo tiếng nói cho những người mất khả năng nói chuyện.
Tuy nhiên, OpenAI cho rằng hiểm họa tiềm tàng của công nghệ bắt chước giọng nói, đặc biệt trong thời gian Mỹ tổ chức bầu cử tổng thống. Đây là một phần lý do khiến công ty quyết định hạn chế quyền tiếp cận, chưa mở rộng rãi công nghệ mới này.
Các chuyên gia cũng đưa ra cảnh báo rằng, công nghệ nhân bản giọng nói bằng AI có thể hỗ trợ cho các vụ lừa đảo qua điện thoại, tác động vào các cuộc tranh cử và vi phạm nhân phẩm của con người dù họ còn sống hay đã chết bởi có những người không bao giờ đồng ý tái tạo giọng nói của mình để dùng nói lên những điều họ chưa từng nói. Công nghệ giả giọng bằng AI gây chú ý sau khi một bản ghi âm bắt chước giọng Tổng thống Mỹ Joe Biden kêu gọi người dân "không tham gia bầu cử sơ bộ của đảng Dân chủ ở New Hampshire", được phát tán trên mạng xã hội hồi tháng 1.
Pindrop Security, công ty chuyên phát hiện lừa đảo qua giọng nói, sau đó phân tích bản ghi đã kết luận đây là deepfake sử dụng công nghệ của ElevenLabs - startup phát triển phần mềm AI tạo lập giọng nói bằng hơn 20 ngôn ngữ.
Theo Fortune, deepfake giọng ông Biden khiến nhiều chuyên gia và quan chức phụ trách bầu cử Mỹ lo ngại, gọi đây là "nỗ lực can thiệp bầu cử được hỗ trợ bởi AI". Một số đánh giá nó không chỉ cho thấy việc phát tán deepfake âm thanh rất dễ dàng, mà còn thể hiện nguy cơ kẻ xấu dùng công nghệ này để ngăn cử tri đi bỏ phiếu và tác động đến kết quả bầu cử.
Nguyễn Loan