EU cân nhắc cấm sử dụng trí tuệ nhân tạo để giám sát người dùng
Liên minh châu Âu (EU) đề xuất dự thảo cấm đưa trí tuệ nhân tạo (AI) vào hệ thống tín dụng xã hội và giám sát hàng loạt.
EU sẽ kiểm soát các hệ thống AI gắt gao hơn
Nếu dự thảo được thông qua, EU sẽ khẳng định lập trường mạnh mẽ trong vấn đề AI. Sau đó, các quốc gia thành viên của EU sẽ thành lập hội đồng đánh giá để kiểm tra những hệ thống AI có rủi ro cao. Công ty nào phát triển hoặc bán phần mềm AI bị cấm ở EU có thể bị phạt tới 4% doanh thu toàn cầu.
Theo The Verge , các điều luật trong dự thảo yêu cầu cấm các hệ thống AI “giám sát bừa bãi” và chấm điểm tín dụng xã hội – một hình thức đánh giá công dân dựa trên hành vi hoặc đặc điểm tính cách.
Không những thế, tổ chức, cơ quan nào muốn sử dụng hệ thống AI có khả năng nhận dạng sinh trắc học từ xa như nhận dạng gương mặt sẽ cần sự ủy quyền đặc biệt. Bên cạnh đó, người dân cần được thông báo mỗi khi tương tác với các hệ thống AI.
Video đang HOT
Các hệ thống AI “rủi ro cao”, gây ảnh hưởng trực tiếp đến con người như chế độ tự lái trên ô tô hay hệ thống tuyển dụng nhân sự, chấm điểm công dân… cần được theo dõi sát sao. Dự thảo yêu cầu các hệ thống này phải được đánh giá trước khi đưa vào sử dụng, đảm bảo chúng đạt chất lượng cao, không sa vào định kiến.
Sau cùng, dự thảo đề xuất thành lập Ủy ban Trí tuệ nhân tạo châu Âu, quy tụ đại diện từ các quốc gia thành viên để giúp ủy ban quyết định hệ thống AI nào sẽ được xem là “rủi ro cao”.
Tuy nhiên, các chuyên gia về quyền con người cho rằng dự thảo vẫn còn nhiều điểm phải cải thiện. Daniel Leufer – nhà phân tích chính sách tại Access Now nói với The Verge : “[Dự thảo] có nhiều từ ngữ mơ hồ, chưa mô tả rõ ràng hệ thống AI nào sẽ bị cấm, sẽ tạo ra lỗ hổng nghiêm trọng khi áp dụng”.
Omer Tene – phó chủ tịch tổ chức phi lợi nhuận IAPP cho rằng nếu đề xuất được thông qua sẽ tạo ra “một hệ sinh thái pháp lý rộng lớn”, ảnh hưởng không chỉ những người tạo ra hệ thống AI mà còn gây tác động đến các nhà nhập khẩu, phân phối, người dùng, kéo theo việc thành lập các cơ quan quản lý ở quy mô quốc gia và trên toàn EU.
Michael Veale – giảng viên tại Đại học College London (Anh) cho rằng hệ sinh thái này sẽ không hạn chế hoạt động của “ big tech”, mà chủ yếu nhắm đến các nhà cung cấp dịch vụ ít phổ biến, còn các công ty bán những hệ thống AI được dùng rộng rãi giờ đây phải nâng tiêu chuẩn cao hơn.
Các nhà hoạch định chính sách của EU sẽ đưa ra thông báo chính thức vào ngày 21.4.
Phương pháp mới phát hiện Deepfake
Bằng khả năng sử dụng công nghệ máy học (machine learning) và trí tuệ nhân tạo (AI) để tổng hợp hình ảnh, những gương mặt người ảo do Deepfake tạo ra ngày càng tinh vi hơn. Vậy phải làm thế nào phân biệt giữa Deepfake và người thật?
Ảnh trái là người thật. Ảnh phải là Deepfake vì có sự khác biệt giữa hai mắt
Để trả lời cho câu hỏi này, các nhà khoa học máy tính từ Đại học Buffalo (Mỹ) vừa công bố hệ thống trí tuệ nhân tạo (AI) có khả năng phát hiện Deepfake chỉ bằng cách phân tích ánh sáng phản chiếu trong đôi mắt. Thử nghiệm trên ảnh chân dung, công cụ này hiệu quả đến 94% khi nhận diện Deepfake.
Theo The Next Web , hệ thống AI giúp vạch trần Deepfake bằng cách phân tích giác mạc vốn có bề mặt giống như gương phản chiếu hình ảnh mỗi khi có ánh sáng chiếu vào. Đối với ảnh chụp chân dung người thật, những đốm sáng phản chiếu trong hai mắt sẽ giống nhau, nhưng cặp mắt trong ảnh do Deepfake tạo ra thường thiếu nhất quán, mỗi bên mắt phản chiếu đốm sáng khác nhau hoặc vị trí phản xạ không khớp.
Phân tích ánh sáng phản chiếu trên mắt là mấu chốt của phương pháp này
AI tìm kiếm những điểm khác biệt bằng cách lập bản đồ gương mặt, phân tích ánh sáng phản chiếu trong mỗi nhãn cầu. Hệ thống tạo ra những điểm ảnh như một thước đo độ tương đồng, điểm ảnh càng nhỏ thì càng có khả năng gương mặt đó là Deepfake.
Tuy nhiên, hạn chế của hệ thống là chỉ dựa vào nguồn ánh sáng phản xạ ở hai mắt. Nếu một trong hai mắt bị che mất trên ảnh thì xem như không thể áp dụng phương pháp này. Mặt khác, có thể thực hiện xử lý hậu kỳ để cặp mắt trong ảnh Deepfake trở nên chân thật hơn.
Các nhà nghiên cứu vẫn tiếp tục khắc phục những nhược điểm nhằm nâng cao hiệu quả của hệ thống AI nhận diện Deepfake. Hiện tại, hệ thống mới chỉ nhận diện một số hình ảnh tương đối đơn giản, chưa thể phát hiện những Deepfake tinh vi nhất.
Trên thế giới, Deepfake đang bị sử dụng vào những mục đích bất chính như lan truyền tin giả hay ghép mặt người nổi tiếng vào phim khiêu dâm.
3 người Việt mở công ty AI tại Nhật Startup phần mềm được 3 người Việt thành lập năm 2017 với mục tiêu thúc đẩy ứng dụng trí tuệ nhân tạo (AI) tại Nhật Bản, chuẩn bị mở chi nhánh tại Việt Nam. "Chúng tôi muốn cung cấp hệ thống dễ sử dụng với các công ty vừa và nhỏ", Nguyễn Công Thành, Chủ tịch Hachix chia sẻ bằng tiếng Nhật với...