Chuyên gia deepfake cảnh báo sẽ có những video deepfake “chân thực hoàn hảo” trong 6 tháng nữa
Đây là chuyên gia từng tạo ra đoạn video deepfake về Tổng thống Nga Putin cho một hội thảo của MIT tuần qua.
Trong một lần phỏng vấn với CNBC hôm thứ 6 vừa qua, chuyên gia DeepFake Hao Li cho biết mọi người sẽ được chứng kiến những đoạn video kỹ thuật số giả mạo “ chân thực đến hoàn hảo” trong vòng từ 6 đến 12 tháng tới.
“Hiện nay bạn vẫn rất dễ để nhận biết bằng mắt hầu hết các video deepfake” – Hao Li, Phó giáo sư ngành khoa học máy tính tại Đại học Nam California nói – “Nhưng cũng có những ví dụ thực sự, thực sự thuyết phục”.
Ông nói tiếp: “Sớm thôi, sẽ đến lúc không còn cách nào để chúng ta có thể thực sự phát hiện ra deepfake nữa, do đó chúng ta sẽ phải tìm các giải pháp khác”.
Li từng tạo ra một video deepfake về Tổng thống Nga Vladimir Putin tại một hội thảo công nghệ của MIT hồi tuần trước. Theo ông, video này có mục đích biểu diễn tình trạng hiện nay của công nghệ deepfake, vốn đang phát triển nhanh hơn so với ông nghĩ. Tại hội thảo đó, ông phát biểu rằng những video deepfake “hoàn hảo và không thể phát hiện được” vẫn còn “một vài năm nữa” mới xuất hiện.
Video đang HOT
Nhưng sau khi CNBC hỏi rõ hơn về mốc thời gian đó trong một email gửi sau cuộc phỏng vấn, Li nói rằng những phát triển mới đây, bao gồm sự xuất hiện của ứng dụng Trung Quốc cực kỳ phổ biến là Zao, đã buộc ông phải “tính toán lại” mốc thời gian mình đưa ra.
“Theo những cách nào đó, chúng ta đã biết cách làm ra nó” – ông nói trong email trả lời. “Nó chỉ cần được huấn luyện với nhiều dữ liệu hơn và hoàn thiện mà thôi”.
Những bước tiến trong lĩnh vực trí tuệ nhân tạo hiện cho phép các video deepfake trở nên ngày một đáng tin hơn, và cũng ngày một khó khăn hơn trong việc giải mã ra những video thực từ những video đã qua chỉnh sửa. Điều đó đã làm gióng lên những hồi chuông báo động về vấn nạn phổ biến tin tức sai lệch, đặc biệt trong bối cảnh nước Mỹ và nhiều quốc gia khác chuẩn bị bước vào các cuộc bầu cử chính trị trong thời gian tới.
Theo GenK
Trí tuệ nhân tạo không thể bảo vệ người dùng công nghệ khỏi deepfake
Theo một báo cáo mới từ Data and Society, các giải pháp dựa trên trí tuệ nhân tạo có thể không cứu vãn được con người khỏi deepfake các video bị thay đổi một cách giả tạo và mang tính tiêu cực.
Trong báo cáo, các tác giả Britt Paris và Joan Donovan đã nghiên cứu deepfake dưới một cái nhìn sâu rộng - sự thao túng truyền thông liên tục và nói rằng điều này chỉ được giải quyết nếu có sự chung tay từ cả xã hội và kỹ thuật.
"Cơn hoảng loạn xung quanh các vấn đề liên quan đến deepfake chứng minh các giải pháp kỹ thuật nhanh chóng đã không định vị và giải quyết được các vấn đề cấu trúc", Paris nói với The Verge.
"Đây là một dự án lớn, nhưng chúng tôi cần tìm giải pháp mang tính xã hội cũng như chính trị để những người không có quyền lực sẽ không bị bỏ lại trong cuộc tẩy chay này".
Deepfake - video được xử lý bằng trí thông minh nhân tạo để đánh lừa người xem.
Quan hệ giữa truyền thông và sự thật chưa bao giờ ổn định, báo cá cho hay. Các tác giả trích dẫn hành động của những công ty truyền thông trong Gulf War rằng họ đã trình bày sai sự kiện trên mặt đất bằng cách chỉnh sửa hình ảnh từ các bản tin buổi tối.
Những hình ảnh là thật, song chúng đã bị thao túng sai lệch bằng cách bối cảnh hóa, diễn giải và phát sóng suốt ngày đêm trên truyền hình cáp.
Nỗi sợ hãi về các lỗ hổng truyền bá thông tin sai lệch đã tăng lên khi công nghệ dần trở nên tiến bộ. Một số lo lắng nó có thể "tàn phá" cuộc bầu cử diễn ra vào năm 2020 tới.
Hầu hết các phương tiện truyền thông có liên quan đến deepfake đã tập trung vào các nhân vật nổi tiếng và nhà lập pháp, như Chủ tịch Hạ viện Nancy Pelosi (D-Calif). Nhưng các tác giả viết rằng: Những người bị tổn hại cuối cùng bởi loại công nghệ này chính là công dân và xã hội.
Mặc dù các nhà nghiên cứu đang xem xét giải pháp công nghệ và gần đây Facebook đã phát hành một bộ dữ liệu thử nghiệm các mô hình mới nhằm phát hiện lỗ hổng sâu trong kĩ thuật, báo cáo Dữ liệu và Xã hội cảnh báo không nên chỉ tin tưởng vào các ông "trùm" công nghệ Big Tech.
Các giải pháp cần bao gồm nhiều hơn nữa, có thể là ban hành biện pháp liên bang đối với các tập đoàn, để khuyến khích họ giải quyết vấn đề này một cách có ý nghĩa hơn từ lợi nhuận khổng lồ của mình trong 15 năm qua, các tác giả đã viết trong kết luận của báo cáo.
Theo VietQ
Cảnh báo lỗ hổng bảo mật trên Jenkins giúp hacker chiếm quyền điều khiển máy tính của doanh nghiệp Công ty cổ phần An ninh mạng Việt Nam (VSEC) vừa đưa ra cảnh báo khẩn cấp về lỗ hổng bảo mật nghiêm trọng trên ứng dụng Jenkins có thể ảnh hưởng đến nhiều doanh nghiệp Việt Nam, cho phép hacker thực thi lệnh trái phép từ xa. Theo phân tích của chuyên gia VSEC, khai thác lỗ hổng bảo mật trên Jenkins,...