Những toan tính phía sau biểu tượng ‘phẫn nộ’, ‘thương thương’ trên Facebook
Công thức tính điểm cho nút thích và các nút tương tác khác như phẫn nộ, thương thương… đã thúc đẩy cơn thịnh nộ và thông tin xuyên tạc trên Facebook.
5 năm trước, Facebook mang đến cho người dùng những cách thức mới để tương tác bài viết, ngoài nút “thích” truyền thống. Đó là “yêu thích”, “haha”, “wow”, “buồn”, “phẫn nộ” và “thương thương”.
Nhưng theo The Washington Post, mọi thứ không đơn giản như vậy. Facebook đã lập trình thuật toán để quyết định những gì xuất hiện trên News Feed của người dùng nhằm sử dụng những biểu tượng cảm xúc ( emoji) làm tín hiệu, thúc đẩy nội dung có tính chất khiêu khích. Tài liệu nội bộ chỉ ra, từ năm 2017, thuật toán Facebook chấm điểm emoji cao gấp 5 lần nút “thích”. Lý thuyết rất dễ hiểu: bài viết nhận nhiều emoji có xu hướng tương tác cao hơn, trong khi giữ chân người dùng lại là sống còn với việc kinh doanh của Facebook.
Tuy nhiên, các nhà nghiên cứu Facebook nhanh chóng nhận ra lỗ hổng chết người của emoji. Đó là ưu tiên các bài viết gây tranh cãi – bao gồm bài viết khiến người dùng tức giận – sẽ mở ra cánh cửa dẫn tới nhiều nội dung rác/lạm dụng/câu view hơn. Các nhà khoa học dữ liệu của công ty xác nhận điều đó trong báo cáo năm 2019: bài viết nhận nhiều emoji “phẫn nộ” có xu hướng chứa tin giả, độc hại và tin tức chất lượng thấp.
Nó đồng nghĩa trong 3 năm, Facebook đã khuếch trương một cách có hệ thống những thứ tồi tệ nhất trên nền tảng của mình, hiển hiện nó trên News Feed người dùng và phát tán đến lượng khán giả rộng hơn. Sức mạnh thuật toán làm xói mòn nỗ lực của việc quản trị nội dung và liêm chính đang ngày ngày đấu tranh chống lại những thông tin gây hại, thù địch.
Cuộc tranh luận về emoji “phẫn nộ” bên trong Facebook sẽ không bao giờ được đưa ra ánh sáng nếu không có người tố giác, cựu nhân viên Facebook Frances Haugen. Bà đã cung cấp nhiều tài liệu cho các cơ quan thông tấn lớn của Mỹ, trong đó có The Washington Post.
Trong phiên làm chứng trước Quốc hội Anh hôm 25/10, bà Haugen khẳng định: “Giận dữ và thù hận là cách phát triển dễ nhất trên Facebook”.
Thuật toán như của Facebook phụ thuộc vào các kỹ thuật máy học công phu và tinh vi. Song đầu ra của nó lại do con người quyết định. Đó chính là vấn đề.
Sức nặng của emoji “phẫn nộ” chỉ là một trong nhiều đòn bẩy mà các kỹ sư Facebook dùng nhằm thao túng luồng thông tin trên mạng xã hội. Facebook tính đến nhiều yếu tố để News Feed của mỗi người xuất hiện như thế nào, mỗi lần họ F5. Nó bao gồm xếp bài viết nào ở trên cùng giúp đập ngay vào mắt hay xếp ở dưới cùng cho không bao giờ nhìn thấy. Nói cách khác, tương tác con người tại gần như mọi quốc gia đều nằm trong bàn tay, hay nói đúng hơn là hệ thống chấm điểm của Facebook.
Facebook cho biết phần mềm của mình tiếp nhận hơn 10.000 “tín hiệu” để dự đoán hình thức tương tác của người dùng. Hầu hết chúng ta không để ý các tín hiệu này, chẳng hạn có bao nhiêu bình luận dài dưới bài đăng, video được phát trực tiếp hay quay sẵn, bình luận toàn ký tự hay có thêm hình ảnh. Nó thậm chí còn tính đến tốc độ tải mỗi bài viết và đường truyền Internet. Dựa vào đòn bẩy, tác động của một tinh chỉnh nhỏ cũng “tạo sóng” trên cả mạng lưới, định hình luồng tin trên News Feed là đáng tin cậy hay đáng nghi ngờ, có xu hướng chính trị hay không, có nhìn thấy bạn bè thực sự không…
Văn hóa thử nghiệm ăn sâu vào máu Facebook, nơi các kỹ sư liên tục thực hiện đòn bẩy và đo lường kết quả. Chẳng hạn, Facebook từng cho một số bạn bè bất kỳ xuất hiện thường xuyên trên News Feed của người dùng và quan sát xem hai người có tiếp tục liên hệ sau khi thử nghiệm kết thúc không. Theo một nhà nghiên cứu, Facebook có thể khiến cho các mối quan hệ trở nên gần gũi hơn và ngược lại.
Bình luận dưới bài đăng được chấm điểm còn cao hơn cả emoji và cao gấp 30 lần nút “thích”. Facebook phát hiện tương tác từ bạn bè trên Facebook sẽ thúc đẩy người dùng đăng bài nhiều hơn. Tháng trước, Thời báo Phố Wall đưa tin Facebook quan tâm đến bình luận, phản hồi bình luận và chia sẻ. Nó nằm trong cái gọi là thước đo “tương tác xã hội có ý nghĩa”, từ đó khuyến khích những bài viết chia rẽ chính trị. Mục tiêu của thước đo là “gia tăng trải nghiệm của người dùng nhờ ưu tiên bài viết thu hút tương tác, đặc biệt là đối thoại, giữa gia đình và bạn bè”.
Năm 2018, Facebook “hạ giá” emoji “phẫn nộ” khi giá trị chỉ còn cao gấp 4 lần nút “thích” và giữ nguyên giá trị các nút còn lại. Theo một tài liệu năm 2020, emoji “phẫn nộ” kém phổ biến nhất trong các emoji với 429 triệu lượt bấm mỗi tuần, so với 63 tỷ lượt “thích” và 11 tỷ lượt “yêu thích”. Nút “phẫn nộ” dùng thường xuyên hơn đối với các bài đăng có vấn đề như chất lượng tin thấp, tin giả, độc hại, anti vaccine.
Sau vài lần đề xuất và tranh cãi từ nhân viên, Facebook quyết định giảm giá trị của tất cả emoji xuống, chỉ còn cao gấp 1,5 lần nút “thích” vào năm 2020. Tháng 9 cùng năm, mạng xã hội cuối cùng dừng sử dụng emoji “phẫn nộ” như một tín hiệu dự đoán nội dung người dùng muốn xem và giảm giá trị bằng 0, đồng thời tăng giá trị emoji “yêu thích” và “buồn”. Ngoài ra, một số tín hiệu khác cũng bị điều chỉnh, chẳng hạn bình luận 1 ký tự (như “.”, “có”) không được tính.
Video đang HOT
Dù vậy, theo The Washington Post, Facebook chỉ điều chỉnh thước đo sau khi chúng đã gây tác hại. Facebook muốn khuyến khích người dùng livestream nên đặt giá trị livestream cao gấp 600 lần ảnh hay văn bản. Điều đó dẫn tới làn sóng video chất lượng cực thấp. Livestream cũng đóng vai trò lớn trong các sự kiện chính trị, chẳng hạn vụ bạo loạn tại Đồi Capitol hôm 6/1. Ngay sau đó, Facebook đã phải giảm giá trị của livestream trên nền tảng.
Các nhà khoa học dữ liệu của Facebook chỉ ra, khi đặt giá trị emoji “phẫn nộ” về 0, người dùng bắt đầu nhìn thấy ít tin sai sự thật hơn, ít nội dung phiền toái hơn và ít nội dung bạo lực hơn. Trong khi đó, mức độ hoạt động của người dùng trên Facebook không bị ảnh hưởng.
Thuật toán nguy hiểm của Facebook hoạt động ra sao?
Nhiều cựu nhân viên đã tố cáo thuật toán của Facebook ảnh hưởng nghiêm trọng đến cách hiển thị nội dung trên nền tảng.
Trong phiên điều trần trước Thượng viện Mỹ vào tháng 10, Frances Haugen, cựu quản lý sản phẩm Facebook chỉ trích động thái hời hợt của công ty trước những nội dung không an toàn cho trẻ vị thành niên. Bà nhấn mạnh nguyên nhân đến từ thiết kế nền tảng và thuật toán xếp hạng, kiểm duyệt nội dung của Facebook.
Theo MIT Technology Review , đây là bước ngoặt đáng chú ý so với quan điểm hiện nay của các nhà lập pháp về chính sách kiểm duyệt của Facebook. Nhiều chuyên gia cho rằng quan điểm hiện tại của giới chức Mỹ đã bỏ qua bức tranh lớn hơn mà Haugen đề cập.
"Tôi ủng hộ mạnh mẽ các giải pháp (kiểm duyệt) không dựa trên nội dung, vì chúng sẽ bảo vệ những người dễ bị tổn thương trên thế giới", Haugen chỉ ra sự không đồng nhất của Facebook trong khả năng kiểm duyệt nội dung bằng tiếng Anh và ngôn ngữ khác.
Không chỉ Haugen, nhiều nhân vật liên quan cũng có ý kiến tương tự về hiệu quả thực sự của thuật toán nội dung mà Facebook đầu tư phát triển.
Thuật toán của Facebook hoạt động thế nào?
Chúng ta thường nói "thuật toán của Facebook" như thể chỉ có một đoạn mã tồn tại. Trên thực tế, quyết định nhắm mục tiêu quảng cáo, hiển thị nội dung trên Facebook dựa trên hàng trăm, hoặc hàng nghìn thuật toán. Một số thuật toán phân tích thói quen người dùng để nâng vị trí bài đăng dựa trên sở thích, số khác phát hiện các loại nội dung bẩn như ảnh khỏa thân, spam, tiêu đề giật gân để xóa, hạ vị trí của chúng trên News Feed.
Frances Haugen, cựu Giám đốc Sản phẩm Facebook tố cáo công ty cũ trước Thượng viện Mỹ đầu tháng 10.
Với lượng dữ liệu khổng lồ của người dùng Facebook, thuật toán có thể tự phát triển để thu hẹp phạm vi đối tượng. Không chỉ có "nam" hay "nữ", thuật toán có thể biết người dùng là "nữ từ 25-34 tuổi, thích những fanpage liên quan đến yoga" để nhắm quảng cáo cho họ. Mục tiêu được nhắm càng cụ thể, cơ hội nhấp vào quảng cáo càng cao, mang đến nhiều lợi nhuận hơn cho nhà quảng cáo so với chi phí bỏ ra.
Nguyên tắc tương tự cũng áp dụng cho vị trí nội dung trên News Feed. Thuật toán có thể được huấn luyện để dự đoán ai sẽ thích hoặc chia sẻ bài đăng với nội dung nhất định, từ đó đẩy những bài tương tự lên vị trí cao. Ví dụ, nếu thuật toán xác định một người dùng yêu chó, những bài viết có ảnh chó sẽ xuất hiện cao hơn trên News Feed.
Trước khi Facebook áp dụng thuật toán máy học, các nhân viên đã sử dụng nhiều cách để tăng mức độ tương tác. Họ thử nghiệm các chi tiết như màu sắc nút bấm, tần suất nhận thông báo để thu hút người dùng quay lại nền tảng. Tuy nhiên, thuật toán máy học mạnh mẽ hơn khi có thể phát triển dựa trên thói quen liên tục thay đổi của người dùng, thay vì chỉ cá nhân hóa nội dung dựa trên những gì họ nhìn thấy.
Ai quản lý thuật toán của Facebook?
Không có đội ngũ cụ thể phụ trách toàn bộ thuật toán của Facebook. Các kỹ sư phát triển và bổ sung mô hình máy học của riêng họ vào hệ thống chung. Ví dụ, đội ngũ tập trung vào nội dung bẩn chỉ huấn luyện mô hình của họ để nhận diện các loại nội dung không phù hợp.
Hướng đi này là một phần trong văn hóa "di chuyển nhanh, phá vỡ mọi thứ" của Facebook. Công ty đã phát triển công cụ nội bộ có tên FBLearner Flow, giúp các kỹ sư không có kinh nghiệm về máy học dễ dàng phát triển mô hình thuật toán dựa trên yêu cầu của họ. Một tài liệu nội bộ cho thấy công cụ được hơn 1/4 nhóm kỹ sư của Facebook sử dụng vào năm 2016.
Thuật toán của Facebook bị tố gây tác động tiêu cực đến người dùng trẻ, bỏ qua bài viết kích động bạo lực trên nền tảng.
Trong các tài liệu của Facebook bị rò rỉ cho giới truyền thông, nhiều nhân viên (đang làm việc hoặc đã nghỉ) của Facebook cho biết đó là một phần khiến nền tảng này không thể xử lý triệt để nội dung bẩn. Các nhóm kỹ sư đặt ra mục tiêu khác nhau khiến hệ thống thuật toán trở nên phức tạp, khó sử dụng đến mức không ai có thể quản lý mọi thành phần bên trong.
Krishna Gade, cựu Giám đốc Kỹ thuật Facebook cho biết công ty kiểm soát chất lượng thuật toán chủ yếu dựa trên thử nghiệm và đo lường kết quả. Một mô hình sẽ bị loại bỏ nếu chúng làm giảm mức độ tương tác quá nhiều. Trên Twitter, Gade giải thích các kỹ sư sẽ nhận thông báo vài ngày một lần nếu các chỉ số bình luận, lượt thích sụt giảm. Sau đó, họ cần tìm ra nguyên nhân và huấn luyện lại thuật toán.
Thuật toán của Facebook lan truyền tin giả ra sao?
Trong phiên điều trần, Haugen liên tục nhắc đến thuật toán của Facebook kích động lan truyền tin giả, ngôn từ thù địch và bạo lực.
"Facebook... biết - từng thừa nhận trước công chúng - rằng thuật toán xếp hạng nội dung dựa trên mức độ tương tác gây nguy hiểm nếu không có hệ thống bảo mật, tuy nhiên lại không triển khai hệ thống ấy cho hầu hết ngôn ngữ trên thế giới... Nó khiến các gia đình chia ly. Tại những nơi như Ethiopia, thuật toán đang kích động bạo lực sắc tộc theo đúng nghĩa đen", Haugen nói.
64% thành viên tham gia các nhóm cực đoan đến từ công cụ đề xuất của chúng ta
Monica Lee, nhà khoa học dữ liệu của Facebook nói năm 2018
Vào năm 2018, Facebook từng công khai thừa nhận chưa hành động đủ, khiến nền tảng bị lợi dụng để gây chia rẽ, kích động bạo lực ngoài đời. Một bản thuyết trình nội bộ cho thấy công ty đã nhắc đến điều này ít nhất từ năm 2016. Monica Lee, nhà khoa học dữ liệu của Facebook, thời điểm ấy đã phát hiện nền tảng không chỉ chứa lượng lớn hội nhóm mang tư tưởng cực đoan mà còn gợi ý chúng cho người dùng.
"64% thành viên tham gia các nhóm cực đoan đến từ công cụ đề xuất của chúng ta, chủ yếu đến từ tính năng Nhóm bạn nên tham gia và Khám phá trên Facebook", Lee cho biết.
Năm 2017, Chris Cox, Giám đốc Sản phẩm Facebook đã lập đội ngũ phân tích việc tối đa hóa tương tác trên Facebook có góp phần gây phân cực chính trị hay không. Kết quả cho thấy sự liên quan, trong khi giảm bớt nội dung phân cực cũng tác động đến tương tác. Hầu hết giải pháp được đội ngũ đưa ra bị cho là "anti growth" (chống lại sự tăng trưởng) khiến chúng không được duyệt, cuối cùng đội ngũ này cũng giải tán.
Trong lời khai trước thượng viện Mỹ, Haugen nhiều lần nhấn mạnh tình trạng phân cực trên Facebook tệ hơn tại các khu vực không nói tiếng Anh.
Tin giả là một trong những vấn đề nghiêm trọng với thuật toán của Facebook.
"Tại Ethiopia với 100 triệu dân và 6 ngôn ngữ, Facebook chỉ hỗ trợ 2 trong số chúng cho hệ thống thuật toán đầy đủ... Chiến lược tập trung vào từng ngôn ngữ, nội dung cụ thể cho AI để cứu chúng ta chắc chắn thất bại. Do đó, đầu tư vào các giải pháp không dựa trên nội dung không chỉ bảo vệ tự do ngôn luận, mà còn bảo vệ cuộc sống mọi người", Haugen cho biết.
Từ tháng 10, WSJ đã đăng tải loạt bài thuộc chuyên mục The Facebook Files, bao gồm tài liệu nội bộ cho thấy Instagram ảnh hưởng đến sức khỏe tâm thần ở người dùng nữ trẻ tuổi. "32% cô gái tuổi teen nói rằng họ cảm thấy tồi tệ về cơ thể của mình, Instagram khiến họ cảm thấy tồi tệ hơn", một slide thuyết trình tháng 3/2020 cho biết.
Haugen cũng liên kết tình trạng này với hệ thống xếp hạng nội dung dựa trên mức độ tương tác. "Nếu Instagram là động lực tích cực, chúng ta có thấy sức khỏe tinh thần của thanh thiếu niên được cải thiện rõ trong 10 năm qua chưa? Không, chúng ta thấy tỷ lệ tự tử và trầm cảm ở thanh thiếu niên leo thang", Haugen cho biết.
Cần có giải pháp ngay bây giờ
Theo MIT Technology Review , đội ngũ nghiên cứu của Facebook nhận thấy người dùng có xu hướng đăng hoặc tương tác với nội dung buồn bã, dấu hiệu có thể của bệnh trầm cảm, dễ dàng chuyên sang tiêu thụ nội dung tiêu cực, ảnh hưởng đến sức khỏe tâm thần. Tuy nhiên trong lúc tố cáo, Haugen khẳng định các lãnh đạo Facebook không quan tâm đến thay đổi thuật toán.
Các kỹ sư của Facebook đã đề xuất điều chỉnh mô hình xếp hạng, ít hiển thị nội dung tiêu cực trên News Feed hơn. Tuy nhiên, không có động thái thực tế cho sự thay đổi này. Khi mức độ tương tác làm thước đo đánh giá hiệu quả dự án, nhân viên phải làm quen với việc bỏ qua phản hồi, tiếp tục làm việc với các nhiệm vụ được chỉ định từ cấp trên.
Haugen không ủng hộ việc chia tách Facebook hoặc bãi bỏ Điều 230 trong Chuẩn mực Truyền thông ban hành năm 1996 tại Mỹ, bộ luật được xem như lá chắn bảo vệ các hãng công nghệ lớn. Thay vào đó, bà kêu gọi điều chỉnh mục miễn trừ trách nhiệm trong Điều 230, tập trung vào thuật toán xếp hạng. Haugen cũng ủng hộ Facebook trở lại cách xếp hạng bài viết trên News Feed theo trình tự thời gian.
Thay vì sử dụng người thật, Facebook đã chuyển phần lớn nhiệm vụ kiểm duyệt nội dung sang thuật toán trong những năm gần đây.
Ellery Roberts Biddle, Giám đốc Dự án tại Ranking Digital Rights, tổ chức phi lợi nhuận chuyên nghiên cứu hệ thống xếp hạng bài viết trên mạng xã hội, nhận định việc chỉnh sửa Điều 230 cần được xem xét cẩn thận. "Tôi không nghĩ nó sẽ hoàn toàn đạt mục đích như chúng ta kỳ vọng", Biddle cho biết.
Để kế hoạch chỉnh sửa Điều 230 hiệu quả, Biddle nói rằng các nhà hoạch định chính sách và công chúng cần yêu cầu độ minh bạch cao hơn về cách hoạt động hệ thống nhắm mục tiêu quảng cáo, xếp hạng nội dung của Facebook. "Tôi hiểu ý của Haugen, nhưng nó rất khó khăn. Chúng tôi chưa thể có câu trả lời về tính minh bạch xung quanh các thuật toán", Biddle cho biết.
Tuy nhiên, lời tố cáo của Haugen đã thu hút sự quan tâm lớn đến vấn đề được nhiều chuyên gia, nhân viên tại Facebook đã đề cập từ lâu. Ngoài ra, sự can thiệp của Haugen cũng mở ra viễn cảnh nếu Facebook không thể đưa thuật toán vào khuôn khổ, các nhà hoạch định chính sách có thể giải quyết vấn đề.
"Quốc hội Mỹ có thể thay đổi các quy tắc của Facebook để ngăn chặn tác hại đang gây ra... Tôi chấp nhận gặp rủi ro cá nhân để tiếp tục vì tin rằng chúng ta vẫn còn thời gian hành động, nhưng cần làm điều đó ngay bây giờ", Haugen cho biết.
Facebook cấm cửa người tạo ra công cụ 'hủy theo dõi mọi thứ' Facebook đã đình chỉ vô thời hạn đối với một nhà phát triển vì tạo ra công cụ cho phép người dùng ngừng theo dõi bạn bè và các trang tin tức trên mạng xã hội này. Facebook dường như không muốn ai can thiệp vào nền tảng của mình. Sau khi khóa tài khoản nhóm nghiên cứu thường chỉ trích mình, công...