Lợi dụng AI để lừa đảo hàng triệu NDT
Giới chức Trung Quốc cho biết đã ghi nhận một vụ lừa đảo lợi dụng trí tuệ nhân tạo (AI) để lấy hàng triệu nhân dân tệ (NDT).
Nạn nhân là một người đàn ông, họ Guo. Người này cho biết tháng trước đã nhận một cuộc gọi video từ một người có ngoại hình và giọng nói giống một người bạn thân. Tuy nhiên, người gọi thực ra là một kẻ lừa đảo, đã sử dụng công nghệ AI để có diện mạo và đặc điểm giống bạn của ông Guo.
Đối tượng lừa đảo đã thuyết phục ông Guo chuyển 4,3 triệu NDT (609.000 USD), với lý do một người bạn khác đang cần tiền để trả cọc đấu thầu công khai, song số tiền phải được chuyển từ tài khoản ngân hàng của một công ty nên muốn nhờ ông Guo. Đối tượng đã hỏi số tài khoản ngân hàng cá nhân của ông Guo, sau đó thông báo đã chuyển khoản số tiền 4,3 triệu NDT, đồng thời gửi ảnh giả mạo màn hình giao dịch hoàn tất. Ông Guo chia sẻ bản thân đã chủ quan khi không kiểm tra tiền đã vào tài khoản hay chưa mà chuyển luôn số tiền được yêu cầu từ tài khoản công ty. Ông chỉ phát hiện ra sự thật sau khi nhắn tin cho người bạn bị đối tượng lừa đảo giả mạo.
Video đang HOT
Sau khi tiếp nhận vụ án, cảnh sát đã yêu cầu ngân hàng ngừng tiến hành giao dịch, qua đó giúp ông Guo thu hồi được 3,4 triệu NDT. Cảnh sát đang tìm cách để thu hồi số tiền còn lại, song vẫn chưa xác định được danh tính thủ phạm.
Trong tháng này, cảnh sát ở tỉnh Cam Túc, Tây Bắc Trung Quốc, cho biết đã bắt một người đàn ông ở tỉnh này do sử dụng ChatGPT để soạn một bài báo giả, đưa tin về vụ tai nạn xe buýt chết người và lan truyền rộng rãi trên mạng xã hội.
Chủ đề về những mối nguy tiềm ẩn từ công nghệ AI đột phá đã thu hút được nhiều sự chú ý, kể từ khi công ty OpenAI có trụ sở tại Mỹ ra mắt chatbot ChatGPT vào tháng 11/2022.
Trung Quốc đã công bố kế hoạch đầy tham vọng trở thành nước tiên phong trong công nghệ AI toàn cầu vào năm 2030 và hàng loạt công ty công nghệ bao gồm Alibaba, JD.com, NetEase và ByteDance – công ty chủ quản của TikTok, đã gấp rút phát triển các sản phẩm tương tự ChatGPT. Tuy nhiên, Trung Quốc cũng ban hành chính sách để ngăn ngừa việc sử dụng công nghệ “deepfake” để đăng tải hoặc lan truyền thông tin sai lệch, có hiệu lực từ tháng 1/2023. Tháng trước, cơ quan quản lý Internet Bắc Kinh cũng đề xuất một dự luật yêu cầu tất cả ứng dụng AI mới phải trải qua cuộc kiểm tra “đánh giá bảo mật” trước khi tiếp cận người dân.
Mỹ: Xây dựng quy tắc đối với các công cụ AI
Bộ Thương mại Mỹ đang tổ chức lấy ý kiến đóng góp của các cơ quan, tổ chức và chuyên gia trong lĩnh vực công nghệ về các quy định liên quan đến trí tuệ nhân tạo (AI).
Đây được cho là bước đi đầu tiên của chính quyền Tổng thống Joe Biden nhằm xây dựng các quy tắc đối với các công cụ AI tương tự chatbot ChatGPT.
Biểu tượng của OpenAI và ChatGPT. Ảnh: AFP/TTXVN
Trong một tuyên bố ngày 11/4, Bộ Thương mại Mỹ nhấn mạnh, giống như thực phẩm và ô tô, các công cụ AI cũng cần phải được đảm bảo về mức độ an toàn trước khi ra mắt thị trường.
Mỹ là "cái nôi" của các nhà đổi mới công nghệ và phát triển AI, trong đó có công ty OpenAI tạo ra ChatGPT, nhưng lại đi sau quốc tế trong việc đưa ra các quy định quản lý ngành này.
Tuần trước, Tổng thống Biden đã thúc giục Quốc hội thông qua các dự luật nhằm đặt ra các quy định nghiêm ngặt đối với các công ty công nghệ lớn. Tuy nhiên, các dự luật này được đánh giá là rất ít khả năng được "bật đèn xanh" do sự chia rẽ giữa các nhà lập pháp.
Việc thiếu các quy tắc liên quan đến AI đã cho phép các công ty công nghệ Mỹ tự do đưa ra các sản phẩm mới, làm dấy lên lo ngại về các rủi ro do công nghệ này gây ra. Tháng trước, tỷ phú Elon Musk cùng hàng loạt giám đốc điều hành và chuyên gia đã kêu gọi tạm dừng việc phát triển AI. Công ty OpenAI cũng cho rằng cần có những quy định toàn diện về lĩnh vực này.
Châu Âu siết chặt giám sát ChatGPT Ngày 5/4, Cơ quan Bảo vệ Dữ liệu Pháp (CNIL) thông báo đã nhận được hai khiếu nại về chương trình trí tuệ nhân tạo (AI) ChatGPT, trong bối cảnh các cơ quan quản lý châu Âu đang tăng cường giám sát công cụ chatbot này. Biểu tượng công cụ ChatGPT của công ty OpenAI. Ảnh: AFP/TTXVN Khiếu nại đầu tiên là của...