Tạo ‘bản sao’ bằng deepfake để họp trực tuyến
Người không biết ngoại ngữ có thể dùng “ bản sao” tạo từ deepfake và tính năng dịch để trao đổi bằng ngôn ngữ mẹ đẻ của khách hàng.
Deepfake thường được nhắc đến với những mặt trái, nhưng theo Wired , công nghệ này cũng có thể giúp làm việc từ xa trở nên bớt nhàm chán và khiến các cuộc họp qua Internet thú vị hơn.
Một số nhân viên của công ty kiểm toán EY đang thử nghiệm một công cụ giao tiếp mới. Họ minh họa cho bài thuyết trình của mình bằng các clip với sự tham gia của avatar y hệt bản thân. Hoặc khi trao đổi với khách hàng ở Nhật Bản, họ sử dụng “bản sao” AI của mình cùng chức năng dịch ngôn ngữ theo thời gian thực để tương tác với khách hàng bằng tiếng mẹ đẻ của họ.Việc này được thực hiện bằng công nghệ deepfake.
Công cụ áp dụng tại EY do startup Synthesia ở Anh cung cấp. Synthesia chứng tỏ được tiềm năng khi đại dịch làm ảnh hưởng nghiêm trọng đến cách thức giao tiếp truyền thống. Ở nhiều nơi, chơi golf hay dùng bữa trưa tại nhà hàng đã trở thành điều gần như không thể. Thay vào đó, các cuộc gọi qua zoom và tài liệu PDF trở thành chuyện thường ngày.
Video đang HOT
Deepfake đang trở nên phổ biến.
Jared Reeder, một nhân viên tại EY, chia sẻ trên Wired : “Chúng tôi sử dụng công cụ này như một yếu tố tạo nên sự khác biệt và củng cố bản sắc của một người”.
Quá trình tạo ra một bản sao bằng deepfake tương đối đơn giản. Người dùng ngồi trước máy quay khoảng 40 phút, đọc một kịch bản chuẩn bị sẵn. Cảnh quay và âm thanh sẽ dạy thuật toán của Synthesia về các chuyển động trên khuôn mặt và cách phát âm của người đó để bắt chước ngoại hình và giọng nói.
Sau đó, người dùng chỉ việc nhập những gì họ muốn nói và bản sao sẽ thực hiện bài thuyết trình thay họ.
Ranh giới giữa tiện ích và nguy cơ
Ngay khi deepfake lần đầu xuất hiện năm 2017, công nghệ này đã thu hút sự chú ý trên mạng xã hội. Deepfake về cơ bản là việc sử dụng công cụ AI để gán khuôn mặt hay giọng nói của người này sang người khác trong ảnh, video… với độ chân thực đến kinh ngạc.
Theo thống kê, deepfake được sử dụng nhiều nhất trong việc tạo ra video khiêu dâm với khuôn mặt của người nổi tiếng. Việc ghép và chỉnh sửa khuôn mặt như vậy có thể gây ra mối đe dọa tiềm tàng đối với danh tiếng của các cá nhân và tăng khả năng lan truyền thông tin sai lệch.
Bất chấp khả năng bị lạm dụng, nhiều lĩnh vực đang nắm bắt và ứng dụng deepfake, như trong trường hợp của EY, vào những mục đích tích cực hơn. Ngành công nghiệp quảng cáo cũng đang đi theo con đường này, như Spotify, Hulu và nhiều tổ chức chọn sử dụng deepfake cho các chiến dịch truyền thông của họ.
Hạ viện Hà Lan bị đánh lừa bởi deepfake
Ủy ban đối ngoại Hạ viện Hà Lan bị lừa họp trực tuyến với một người dùng deepfake đóng giả cố vấn của lãnh đạo đối lập Nga, Navalny.
Các hạ nghị sĩ Hà Lan nhận được bài học về mối nguy hiểm của video deepfake khi Ủy ban đối ngoại tổ chức cuộc họp trực tuyến với một người đóng giả Leonid Volkov, cố vấn thân cận của lãnh đạo đối lập Nga Alexei Navalny.
Volkov thật (trái) và Volkov giả trong cuộc họp.
Thủ phạm chưa được công bố, nhưng đây không phải lần đầu sự việc này diễn ra. Nghi phạm từng đối thoại với các chính trị gia Latvia và Ukraine, cũng như tiếp cận nhiều quan chức Estonia, Litva và Anh bằng cách tương tự.
Hạ viện Hà Lan ra thông cáo bày tỏ "phẫn nộ" với vụ lừa đảo và cho biết đang tìm cách ngăn chặn những sự việc tương tự tái diễn.
Dường như cuộc gọi không gây tổn hại nào cho cơ quan lập pháp Hà Lan, nhưng nó cho thấy mối đe dọa của những cuộc gọi dùng deepfake với giới chính trị gia. Các cá nhân thích đùa có thể chỉ làm họ mất mặt, trong khi kẻ xấu đủ sức lừa chính quyền đưa ra những chính sách sai lầm. Điều này đòi hỏi quy trình giám sát nghiêm ngặt để phát hiện deepfake vào bảo đảm những người tham gia họp trực tuyến đều là thật.
Hacker Trung Quốc trốn thuế bằng deepfake Với một chiếc smartphone và công nghệ deepfake, hai hacker Trung Quốc đã đánh lừa hệ thống nhận diện khuôn mặt của chính phủ để gian lận 76,2 triệu USD tiền thuế. Daily Telegraph dẫn thông báo của Viện kiểm soát Nhân dân Thượng Hải cho biết, một nhóm tội phạm đã đánh lừa hệ thống xác minh danh tính của Cơ quan...