Trí tuệ nhân tạo cùa Facebook hỗ trợ quảng cáo cho cả… tổ chức khủng bố IS
Được phát triển nhằm mục đích chống lại nạn ‘fake news’ nhưng tới nay, trí tuệ nhân tạo của Facebook vẫn chưa thể phân biệt tin tức giả mạo dưới dạng văn bản.
Qua thử nghiệm, trang Vice News và Business Insider báo cáo đã trả tiền thành công nhiều quảng cáo chính trị, ủng hộ các chính khách Mỹ như: Phó Tổng thống Mike Pence và Chủ tịch Đảng Dân chủ Tom Perry… qua “Paid For” của Facebook. “Paid For” là tính năng trả phí để quảng cáo tiếp cận tới nhiều đối tượng người dùng Facebook hơn nhờ công nghệ A.I.
Ngoài ra, các đoạn quảng cáo giả mạo, tuyên truyền cho tổ chức khủng bố Nhà nước Hồi giáo IS (Islamic State) và tiếp thị cho công ty nghiên cứu dữ liệu Anh liên quan tới bê bối rò rỉ dữ liệu lớn nhất lịch sử mạng xã hội, Cambridge Analytica (đã giải thể) cũng hỗ trợ “Paid For”.
Video đang HOT
Facebook khẳng định không cho phép các công ty quốc tế đăng tải nội dung truyền bá chính trị nhưng thành viên của Vice News vẫn có thể tải lên và trả tiền thành công cho bản sao quảng cáo chính trị, được quy kết là do gián điệp Nga sử dụng trong cuộc bầu cử Tổng thống Mỹ năm 2016.
Thử nghiệm của Vice News và Business Insider đã vạch trần điểm yếu của công nghệ A.I. trên Facebook. Công ty tuyên bố trí tuệ nhân tạo không thể bị đánh lừa, có khả năng phát hiện thông tin xấu đốc dưới dạng hình ảnh, giọng nói, video… Nhưng thực tế nó lại không thể phát hiện nội dung giả mạo hiển thị dưới dạng văn bản đơn giản.
Theo RFM, trí tuệ nhân tạo của Facebook luôn xếp cuối trong cuộc đua phát triển vũ khí A.I. giữa các công ty công nghệ trong vòng 2 năm qua. Và kết quả của bài thử trên cho thấy A.I trên nền tảng mạng xã hội với hơn 2,2 tỷ người dùng vẫn đang dậm chân tại chỗ.
Trang Forbes nhận định khả năng phân tích và xử lý dữ liệu chỉ là một trong ba điều quan trọng, quyết định thành công của A.I. Cũng chính vì A.I. của Facebook chưa hoàn thiện, không thể đảm đương lượng dữ liệu khổng lồ nên công ty mới phải thuê hàng ngàn nhân viên kiểm duyệt nội dung trên các nền tảng.
Tuy nhiên máy móc vẫn phù hợp hơn con người trong một số lĩnh vực. Việc sử dụng nhân viên kiểm duyệt không phải là phương pháp hiệu quả để ngăn chặn các nội dung phản cảm, thứ cần phải được phát hiện, xác định và xử lý nhanh chóng, trước khi bắt đầu được phát tán. Minh chứng rõ ràng nhất là hiện nay đội ngũ kiểm duyệt Facebook vẫn mất tới nhiều ngày để gỡ phần lớn những bài đăng vi phạm.
Đây là lý do mà các nội dung độc hại vẫn tồn tại trên Facebook. Mặc dù đã được công ty đầu tư nghiên cứu và phát triển, nhưng công nghệ A.I của Facebook đem lại hiệu quả như kỳ vọng.
Theo Forbes
'Người bắt chuyện' trên Facebook là gì?
Khi vào các nhóm (group) Facebook, bạn có thể nhìn thấy biểu tượng 'người bắt chuyện' bên dưới tên một số người dùng. Nó có ý nghĩa gì?
Trong một nhóm Facebook, ngoài quản trị viên, người kiểm duyệt, bạn còn nhìn thấy các biểu tượng khác dưới tên một người dùng nào đó như "thành viên mới" hay "người bắt chuyện". Người bắt chuyện trong nhóm Facebook là gì, làm thế nào để trở thành người bắt chuyện?
Theo Facebook, người bắt chuyện "đang liên tục tạo những cuộc thảo luận có ý nghĩa bằng bài viết của mình". Nói cách khác, một thành viên được xem là người bắt chuyện phải đáp ứng được các tiêu chí: thường xuyên đăng nội dung trong nhóm, các chủ đề họ chia sẻ được thành viên khác tham gia thảo luận sôi nổi, bình luận có giá trị trong chủ đề của người khác.
Như vậy, cách tốt nhất để trở thành người bắt chuyện là gắn bó liên tục với nhóm mà bạn yêu thích. "Like", bình luận và đăng thật nhiều trong nhóm. Theo thời gian, bạn sẽ thấy có biểu tượng "người bắt chuyện" dưới tên tài khoản của mình. Tuy nhiên, cần lưu ý không phải nhóm nào cũng có biểu tượng này.
Theo Báo Mới
Facebook dùng AI để phát hiện và xóa ảnh nhạy cảm trên mạng Không chỉ dùng AI để tìm và xóa ảnh show thân, Facebok còn sử dụng công nghệ này nhằm ngăn chặn các nội dung xâm hại tới trẻ nhỏ. Công nghệ này đã được Facebook khai thác và hoàn thiện suốt nhiều năm qua. Theo đại diện mạng xã hội này, từ tháng 7 đến tháng 9 của năm nay, Facebook đã xóa...