Cảnh báo lừa đảo đầu tư tiền điện tử rất tinh vi nhờ AI
Sau nhiều tháng tán tỉnh trên mạng, một nhân vật tự nhận là nhà buôn rượu đã lừa đảo chiếm đoạt của Shreya Datta, 37 tuổi, ở Philadenphia (Mỹ) 450.000 USD đầu tư cho tiền điện tử.
Đáng chú ý, những kiểu lừa đảo này đang nở rộ tại Mỹ.
Không chỉ bị chiếm đoạt tài sản, mất sạch tiền tiết kiệm và tiền trong quỹ hưu trí, chuyên viên công nghệ Shreya Datta giờ đây còn ngập trong nợ nần. Cô cho biết đối tượng đã sử dụng các video và hình ảnh giả mạo khuôn mặt ( deepfake) và các đoạn tin nhắn tinh vi để “tẩy não” nạn nhân. Các vụ lừa đảo kiểu này đang nở rộ tại Mỹ, được cho là do những băng nhóm tội phạm mạng ở Đông Nam Á thực hiện. Ước tính, các nạn nhân tại Mỹ đã mất hàng tỷ USD với rất ít hy vọng có thể lấy lại tiền.
Datta gặp đối tượng trên ứng dụng hẹn hò Hinge, tự nhận là một nhà buôn rượu người Pháp. Hai bên nhanh chóng làm quen và gọi video, gửi hình ảnh cho nhau nhưng khi vụ việc vỡ lở, Datta mới phát hiện đó đều là sản phẩm của công nghệ deepfake có sự trợ giúp của AI.
Video đang HOT
Đối tượng thường xuyên tỏ ra quan tâm, chăm sóc và thể hiện ủng hộ Datta, trong đó lồng ghép các thông tin để reo rắc trong tâm trí nạn nhân về giấc mơ nghỉ hưu sớm, kế hoạch đầu tư để sống trong sung túc kể cả khi nghỉ hưu trước 65 tuổi. Sau đó, đối tượng gửi cho nạn nhân đường link (dẫn) tải về ứng dụng giao dịch tiền điện tử, có những bước xác minh khiến nạn nhân tin vào tính xác thực của ứng dụng.
Theo lời xúi giục của đối tượng, Datta chuyển đổi một số khoản tiền tiết kiệm sang khoản đầu tư tiền điện tử trên sàn giao dịch Coinbase có trụ sở ở Mỹ và 1 ứng dụng giả ban đầu cho phép cô rút những khoản tiền lãi từ khoản đầu tư này. Chính vì vậy, nạn nhân càng tin tưởng và đầu tư nhiều hơn.
Tính đến tháng 3/2023, khoản đầu tư trị giá gần 450.000 USD của Datta được báo cáo sinh lời gấp đôi. Tuy nhiên, khi cô tìm cách rút khoản tiền này thì được yêu cầu phải có mã số thuế cá nhân. Cô nhờ người quen ở London xác minh thông tin của người yêu trên mạng mới biết tất cả đều là giả mạo, đối tượng sử dụng hình ảnh của một chuyên gia thể hình nổi tiếng ở Đức để tạo ra các hình ảnh và video gửi cho cô. Sau khi phát hiện bị lừa sạch khoản tiền tích lũy, Datta đã rơi vào trạng thái rối loạn căng thẳng sau sang chấn (PSTD), mất ngủ, chán ăn và không thể hoạt động như bình thường. Với Datta, đó là trải nghiệm chấn động.
Các trang mạng hẹn hò vốn là nơi có rất nhiều cạm bẫy, giờ đây trở nên nguy hiểm hơn với sự trợ giúp của công nghệ deepfake sử dụng AI. Cục Điều tra Liên bang Mỹ (FBI) cho biết năm 2023, Trung tâm tiếp nhận khiếu nại về tội phạm mạng đã tiếp nhận hơn 40.000 báo cáo với tổng khoản tiền bị lừa hơn trị giá 3,5 tỷ USD đầu tư tiền điện tử, trong đó có thủ đoạn như vụ việc của Datta. Dù vậy. giới chức lo ngại con số trên có thể thấp hơn nhiều so với thực tế do nhiều nạn nhân còn e ngại, không báo cáo các vụ việc. Ngoài thiệt hại về tài sản, các nạn nhân còn gặp các vấn đề về tâm lý sau cú sốc bị lừa mất sạch tiền của và mắc nợ.
Thủ đoạn lừa đảo tinh vi ở Ấn Độ: Dùng AI giả giọng con để lừa tiền phụ huynh
Khi một ông bố ở Ấn Độ nhận được cuộc gọi từ số điện thoại quốc tế lạ vào tháng 1 với tiếng con trai kêu cứu, ông không ngờ mình sẽ trở thành nạn nhân mới nhất của kế hoạch lừa đảo phức tạp liên quan đến trí thông minh nhân tạo (AI).
Ảnh minh họa. Nguồn: Getty Images
Truyền thông Ấn Độ ngày 12/2 đưa tin kẻ lừa đảo tự nhận mình là cảnh sát, nói với ông Himanshu Shekhar Singh rằng con trai 18 tuổi của ông đã bị bắt cùng một nhóm tội phạm hiếp dâm và cần 362 USD để có thể thoát tội.
Ông Singh kể lại với tờ The Indian Express về vụ việc ngày 8/1: "Phút tiếp theo, tôi nghe thấy một giọng nói: 'Bố ơi, làm ơn trả tiền cho họ, họ là cảnh sát thật, xin hãy cứu con'".
Ông Singh hoàn toàn tin đó là giọng của con trai mình bởi cách nói, cách khóc... mọi thứ đều y hệt. Ông thậm chí sợ người gọi điện là kẻ bắt cóc nên đã trả số tiền ban đầu là 120 USD.
Sau đó, ông quyết định tự mình tìm con trai. Trên thực tế, con trai ông đang làm bài kiểm tra tại một trung tâm giáo dục và không hề hấn gì. Đây là một trong ba trường hợp nổi bật tại New Delhi trong những tuần gần đây khi những kẻ lừa đảo khai thác AI để tạo bản ghi âm giọng nói giả của trẻ em, thanh thiếu niên nhằm lừa các bậc phụ huynh chuyển tiền. Âm thanh deepfake có thể được tạo bằng một đoạn clip thực từ giọng nói của mục tiêu.
Trong trường hợp tương tự, một bà mẹ ở Noida, bang Uttar Pradesh (Ấn Độ) nhận được một cuộc gọi trong đó những kẻ lừa đảo sử dụng công nghệ để bắt chước giọng nói con trai cô. May mắn thay, con trai cô đang học ngay cạnh mẹ khi những kẻ lừa đảo gọi đến.
Cảnh sát Manish Kumar Mishra cho biết: "Những trường hợp như vậy không thường xuyên lắm, nhưng gần đây đã gia tăng. Chúng tôi đang cố gắng hiểu chính xác bằng cách nào bọn tội phạm mạng tạo ra giọng nói giả để lừa gạt mọi người".
Những trường hợp giả giọng nói tương tự đã xảy ra ở nhiều nơi khác trên thế giới. Vào tháng 5/2023, tại khu vực Nội Mông (Trung Quốc) đã xảy ra vụ việc kẻ lừa đảo sử dụng công nghệ hoán đổi khuôn mặt để mạo danh bạn của nạn nhân trong một cuộc gọi video. Tin rằng bạn mình cần đặt cọc để hoàn tất quá trình đấu giá, nạn nhân đã chuyển 4,3 triệu nhân dân tệ cho kẻ lừa đảo.
Tại Hong Kong (Trung Quốc), một công ty đa quốc gia đã bị lừa 200 triệu đô la Hong Kong sau khi một nhân viên nhận cuộc gọi video với hình ảnh giả mạo giám đốc tài chính của công ty mẹ có trụ sở tại Anh và nhiều đồng nghiệp khác. Các đồng nghiệp giả đã ra lệnh cho nhân viên tại Hong Kong chuyển tiền sang tài khoản riêng và nạn nhân đã làm theo.
Thủ tướng Singapore bị giả mạo video quảng bá tiền ảo Thủ tướng Singapore Lý Hiển Long đã cảnh báo người dân cảnh giác với nạn lừa đảo sau khi một đoạn video deepfake xuất hiện, trong đó có hình ảnh giả mạo nhà lãnh đạo kêu gọi đầu tư tiền kỹ thuật số. Một đoạn video deepfake (công nghệ giả mạo hình ảnh, âm thanh và video bằng trí tuệ nhân tạo) mới...