Facebook đang quá phụ thuộc vào thuật toán AI?
Facebook rơi vào khủng hoảng vì chạy theo lợi nhuận, lạm dụng các thuật toán khuếch đại những gì tiêu cực nhất trên mạng xã hội để tối đa hóa lượng tương tác.
Đứng trước Quốc hội Mỹ ngày 5.10, cựu nhân viên Facebook Frances Haugen chỉ trích các thuật toán và thiết kế nền tảng của Facebook là nguyên nhân khiến nội dung kích động thù hận, tin giả tràn lan trên mạng xã hội. Lời khai của Haugen có nhiều điểm tương đồng với những phát hiện từ cuộc điều tra của MIT Technology Review (tạp chí của Viện Công nghệ Massachusetts) vào đầu năm nay.
Thuật toán Facebook hoạt động như thế nào?
Thực tế Facebook có hàng trăm, hàng nghìn thuật toán để nhắm mục tiêu quảng cáo và xếp hạng nội dung. Một số thuật toán nhận biết sở thích của người dùng và đẩy những bài đăng phù hợp lên bảng tin của họ. Các thuật toán khác lại có nhiệm vụ phát hiện những nội dung vi phạm điều khoản. Nhìn chung, chúng được gọi là thuật toán học máy (machine learning).
Rất khó kiểm soát nội dung trên Facebook
Khác với thuật toán truyền thống, thuật toán học máy được đào tạo bằng cách phân tích dữ liệu đầu vào, sau đó nó có thể tự đưa ra các quyết định riêng. Ví dụ, một thuật toán được huấn luyện nhờ phân tích dữ liệu nhấp chuột vào quảng cáo sẽ nghiệm ra rằng phụ nữ xem quảng cáo quần tập yoga nhiều hơn đàn ông. Cuối cùng, mô hình học máy đó sẽ phân phát những quảng cáo tương tự cho phụ nữ nhiều hơn.
Nhờ lượng người dùng khổng lồ, thuật toán có thể phân loại các nhóm đối tượng rất chi tiết, chẳng hạn “phụ nữ từ 25 – 34 tuổi thường thích các trang liên quan đến yoga”. Nhắm mục tiêu càng chi tiết, các hãng quảng cáo càng dễ tạo nhiều lợi nhuận hơn.
Tương tự, Facebook cũng có thể đào tạo những thuật toán để dự đoán từng nhóm đối tượng sẽ thích loại bài đăng nào và tiến hành xếp hạng. Ví dụ bạn thích xem ảnh thú nuôi thì các bài đăng như vậy sẽ được đẩy lên cao hơn trên News Feed của bạn.
Ai điều hành thuật toán Facebook?
Không có bộ phận nào phụ trách toàn bộ hệ thống xếp hạng nội dung trên Facebook, thay vào đó, mỗi nhóm kỹ sư đều có mục tiêu riêng, có nhóm xây dựng mô hình học máy để phát hiện nội dung xấu, có nhóm phụ trách chạy quảng cáo…
Công ty phát triển một bộ công cụ gọi là FBLearner Flow giúp các kỹ sư không có kinh nghiệm về học máy có thể phát triển bất cứ mô hình nào theo ý họ. Khi một mô hình không có hiệu quả, mức độ tương tác không cao, họ sẽ loại bỏ ngay.
Video đang HOT
Facebook ảnh hưởng tiêu cực đến thanh thiếu niên
Vài nhân viên Facebook cho rằng đây là một phần lý do tại sao Facebook không thể kiểm soát nội dung trên nền tảng, bởi các nhóm kỹ sư có mục tiêu riêng, cạnh tranh nhau, còn hệ thống ngày càng phức tạp đến nỗi không ai đủ sức theo dõi từng thành phần riêng lẻ nữa.
Facebook có thực sự ảnh hưởng đến sức khỏe tinh thần của trẻ em?
Một nhóm nghiên cứu của Facebook từng phát hiện những người dùng hay đăng bài viết u sầu, buồn bã thì sẽ tương tác với nội dung tiêu cực nhiều hơn và rơi vào vòng luẩn quẩn không lối thoát.
Nhóm này đề xuất lãnh đạo thay đổi thuật toán. Một người cho biết: “Câu hỏi dành cho lãnh đạo là: Chúng ta có nên tối ưu hóa tương tác khi thấy ai đó đang trong trạng thái dễ tổn thương hay không?”.
Mark Zuckerberg bị tố chỉ quan tâm lợi nhuận
Nhưng đề xuất của họ bị phớt lờ. Mức lương của nhân viên Facebook dựa vào đánh giá hiệu suất làm việc cũng như các dự án mà họ hoàn thành, vậy nên họ nhanh chóng học được cách bỏ qua những điều tiêu cực, tiếp tục làm theo chỉ thị từ cấp trên.
Tại sao việc xếp hạng nội dung lại là nguồn cơn gây kích động thù hận?
Các mô hình học máy giúp tăng tối đa tương tác, mà những bài có nội dung tranh cãi, thông tin sai lệch và cực đoan lại thu hút nhiều lượt tương tác nhất.
Điều này làm bùng phát những căng thẳng chính trị. Trường hợp tiêu biểu nhất là tin giả trên Facebook về nhóm thiểu số Hồi giáo Rohingya ở Myanmar đã khiến xung đột tôn giáo leo thang tại đất nước này.
Facebook không chỉ dung túng cho các nhóm cực đoan mà còn quảng bá những nhóm này tới người dùng. 64% người tham gia các nhóm cực đoan sau khi dùng tính năng đề xuất nhóm hay tính năng Khám phá của Facebook.
Năm 2017, Chris Cox – giám đốc sản phẩm của Facebook thành lập một nhóm nhân viên để tìm hiểu xem việc tối đa hóa tương tác của người dùng có góp phần vào sự phân cực chính trị hay không, rồi nhận thấy đúng là có mối tương quan giữa hai thành tố. Họ đưa ra một số đề xuất giải quyết vấn đề nhưng không được thực hiện, cuối cùng nhóm này giải tán.
Cựu nhân viên Frances Haugen
Một nhà nghiên cứu AI, nhân viên cũ của Facebook cho biết mình đã tiến hành nhiều nghiên cứu tương tự, nhưng kết quả chỉ có một: các mô hình tối đa hóa tương tác làm tăng sự phân cực, và các mô hình học máy khiến người dùng có quan điểm ngày càng cực đoan hơn.
Cựu nhân viên Frances Haugen nói rằng hiện tượng này còn tồi tệ hơn ở những khu vực không nói tiếng Anh, vì Facebook quá phụ thuộc vào các mô hình AI để tự động hóa việc kiểm duyệt nội dung trên toàn cầu.
Khi chiến tranh nổ ra ở vùng Tigray (Ethiopia), nhà nghiên cứu đạo đức AI Timnit Gebru nhận thấy Facebook thất bại trong kiểm soát thông tin sai lệch. Các cộng đồng nói thứ ngôn ngữ không được Thung lũng Silicon ưu tiên thường phải gánh chịu hậu quả nặng nề nhất từ môi trường internet thù địch.
Như thế chưa phải đã hết. Khi tin giả, ngôn từ thù hận không được kiểm duyệt, chúng sẽ được lấy làm dữ liệu đào tạo để xây dựng các mô hình học máy tiếp theo.
Biểu tình chống Facebook ở thủ đô Jakarta, Indonesia vào năm 2018
Những gì mà Haugen nói trước Quốc hội Mỹ càng củng cố thêm lập luận của nhiều chuyên gia và nhân viên Facebook trong nhiều năm qua: nếu công ty không thay đổi thiết kế của các thuật toán, các vấn đề trên nền tảng sẽ không được giải quyết.
Frances Haugen kêu gọi Facebook nên từ bỏ thuật toán xếp hạng nội dung và quay lại với dạng News Feed xếp theo trình tự thời gian.
Theo lời Ellery Roberts Biddle – giám đốc dự án của tổ chức Xếp hạng Quyền kỹ thuật số, chuyên nghiên cứu các hệ thống xếp hạng trên mạng xã hội và tác động của chúng đối với quyền con người, nhà lập pháp cần yêu cầu các công ty minh bạch công khai cách thức hoạt động của những thuật toán, hệ thống quảng cáo và xếp hạng nội dung, dù việc này không hề đơn giản.
Facebook bị tố bỏ qua thông tin sai lệch vì lợi nhuận
Frances Haugen, cựu giám đốc sản phẩm của Facebook, tiết lộ nhiều tài liệu cho thấy mạng xã hội này vì lợi nhuận mà bỏ qua thông tin sai lệch.
"Điều tôi thấy ở Facebook nhiều lần là xung đột lợi ích giữa những gì tốt cho công chúng và những gì tốt cho họ. Họ hết lần này đến lần khác chọn cách tối ưu hóa lợi ích của chính mình, như kiếm nhiều tiền hơn", Haugen, 35 tuổi, nói với CBS ngày 3/10.
Một tháng trước, cô đã nộp ít nhất 8 đơn khiếu nại lên Ủy ban Chứng khoán và Giao dịch Mỹ, tố Facebook che giấu nhiều thiếu sót của mình trước các nhà đầu tư và công chúng. Cô cũng chia sẻ tài liệu nội bộ với Wall Street Journal , trong đó cho thấy mạng xã hội lớn nhất thế giới đã nhận thức được vấn đề với các nền tảng của mình, như những tác động tiêu cực của thông tin sai lệch gây ra, đặc biệt là với người trẻ.
Trước khi gia nhập Facebook năm 2019, Haugen từng làm cho các công nghệ khác như Google và Pinterest. Cô sẽ điều trần trước một tiểu ban của Thượng viện Mỹ vào ngày 5/10. Chủ đề của phiên điều trần này là "Bảo vệ trẻ em trên mạng", tập trung vào tác động của Instagram đối với sức khoẻ tinh thần của người dùng nhỏ tuổi.
Frances Haugen, cựu giám đốc của Facebook, chia sẻ hàng nghìn trang tài liệu và nghiên cứu nội bộ của Facebook.
Haugen cho biết: "Tôi sử dụng nhiều mạng xã hội. Về cơ bản, Facebook tệ hơn bất cứ thứ gì tôi thấy trước đây. Tới năm nay, tôi nhận ra mình phải đưa ra đủ bằng chứng để không ai có thể nghi ngờ điều đó là có phải sự thật hay không".
Trong khi đó, Lena Pietsch, người phát ngôn của Facebook, nói: "Mỗi ngày, đội ngũ kiểm duyệt của chúng tôi phải cân bằng giữa mong muốn thể hiện quan điểm cá nhân của hàng tỷ người dùng và nhu cầu duy trì một môi trường an toàn và tích cực. Chúng tôi tiếp tục thực hiện các bước tiến đáng kể nhằm giải quyết vấn nạn lan truyền thông tin sai lệch và nội dung có hại".
Pietsch nhận xét cuộc phỏng vấn của Haugen là "sự thật không đầy đủ" và "sử dụng các tài liệu của công ty để kể một câu chuyện sai lệch về những nghiên cứu mà chúng tôi thực hiện để cải thiện sản phẩm".
Haugen cho biết cô tin Mark Zuckerberg "không bao giờ muốn tạo ra một nền tảng đáng ghét, nhưng ông ấy lại cho phép nội dung thù địch và gây chia rẽ được truyền bá nhanh hơn và tiếp cận dễ dàng hơn".
Cô được Facebook tuyển dụng cách đây hai năm, chịu trách nhiệm xử lý thông tin sai lệch. Tuy nhiên, công ty giải thể nhóm quản lý thông tin sai lệch dân sự ngay sau cuộc bầu cử tổng thống Mỹ năm 2020, khiến góc nhìn của cô về mạng xã hội này bắt đầu thay đổi.
"Về cơ bản, họ nói: Ồ tốt rồi, chúng ta đã vượt qua cuộc bầu cử, không có bạo loạn, giờ chúng ta có thể giải thể nhóm. Khi họ đưa ra quyết định đóng cửa, tôi có niềm tin chắc chắn rằng công ty sẽ không sẵn sàng đầu tư thực sự lâu dài vào những công cụ để giữ cho nền tảng an toàn", Haugen nói.
Trong khi đó, Guy Rosen, Phó chủ tịch quản lý sản phẩm của Facebook, chia sẻ trêên Twitter hôm 3/10 rằng công việc của đội quản lý thông tin sai lệch dân sự đã được phân bổ vào các bộ phận khác.
Theo Haugen, thuật toán của Facebook được thiết kế để hiển thị cho người dùng những nội dung mà họ nhiều khả năng sẽ tương tác nhất, nhưng cũng là thứ gây ra nhiều vấn đề.
"Facebook tối ưu hóa những nội dung thu hút được sự tham gia của người dùng. Nhưng nghiên cứu của chính công ty đã chỉ ra rằng nội dung gây thù hận, chia rẽ lại dễ dàng tạo ra cảm xúc mạnh hơn. Nếu họ thay đổi thuật toán an toàn hơn với người dùng, mọi người sẽ dành ít thời gian hơn trên nền tảng, ít nhấp vào quảng cáo hơn và công ty kiếm được ít tiền hơn", Haugen cho biết.
Facebook hôm 3/10 cho biết nền tảng của họ phụ thuộc vào việc "đưa mọi người đến gần nhau hơn" nhằm thu hút nhà quảng cáo, đồng thời nói rằng "bảo vệ cộng đồng quan trọng hơn việc tối đa hóa lợi nhuận".
Ác mộng tồi tệ nhất của Facebook Việc bị nhân viên cũ phơi bày hàng loạt sự thật nội bộ được coi là ác mộng mới và tệ nhất của Facebook. Facebook không còn xa lạ với Đồi Capitol - nơi đặt trụ sở Quốc hội Mỹ. Tại đây, CEO Mark Zuckerberg và một số giám đốc cấp cao khác của công ty nhiều lần bị triệu tập trong các...