Bị OpenAI gỡ bỏ vì quá nguy hiểm, phần mềm tạo văn bản này lại được một cặp đôi khôi phục để xem nguy hiểm tới đâu
Các thử nghiệm ban đầu cho thấy, có lẽ lo lắng của những nhà nghiên cứu trong OpenAI về mức độ nguy hiểm của phần mềm này là quá thừa thãi.
Trong tháng Hai vừa qua, phòng thí nghiệm về trí tuệ nhân tạo OpenAI do tỷ phủ Elon Musk đồng sáng lập thông báo rằng bước tiến mới nhất trong nghiên cứu của họ quá nguy hiểm nên không thể công bố công khai. OpenAI tuyên bố họ đã làm nên một phần mềm ngôn ngữ có thể tạo nên những đoạn văn bản giống như người thật, rất phù hợp để phát tán các tin giả hoặc spam.
Những tưởng điều này sẽ mang lại một chút bình yên cho thế giới thì vào thứ Năm tuần trước, hai học viên thạc sĩ về ngành khoa học máy tính cho biết, họ đã tái tạo lại được phần mềm đã bị OpenAI rút lại và đưa lên internet để bất kỳ ai cũng có thể tải xuống và sử dụng.
Phần mềm AI phù hợp cho phát tán tin giả
Hai học viên này, Aaron Gokaslan, 23 tuổi và Vanya Cohen, 24 tuổi, những người không tin vào quan điểm cho rằng những phần mềm như vậy có thể gây ra nhiều rủi ro như vậy cho xã hội. Cặp đôi này cho biết việc đưa phần mềm này lên internet để chứng minh rằng, bạn không cần phải những phòng thí nghiệm hàng triệu USD với đầy các chuyên gia PhD trong đó để tạo ra loại phần mềm này.
Họ đã sử dụng dịch vụ đám mây miễn phí của Google, vốn dành cho các học viện nghiên cứu, với trị giá ước tính khoảng 50.000 USD. Và cặp đôi này cho rằng việc cung cấp miễn phí phần mềm này sẽ giúp những người khác khám phá và chuẩn bị cho những tiến bộ trong tương lai – dù nó tốt hay xấu đi.
Thí nghiệm của cặp đôi này, cũng như của OpenAI, liên quan đến việc cung cấp cho phần mềm máy học đoạn văn bản từ hàng triệu các trang web thu thập thông qua các đường link chia sẻ trên diễn đàn Reddit. Sau đó, phần mềm này sẽ địa phương hóa các mô hình ngôn ngữ của đoạn văn bản đó, để có thể áp dụng cho các tác vụ như phiên dịch, hỗ trợ cho chatbot, hay tự tạo ra các đoạn văn bản mới để phản hồi lại các gợi ý.
Phần mềm do Cohen và Gokaslan tạo ra có thể làm nên những đoạn văn bản cực kỳ ấn tượng. Khi phóng viên của trang Wired thử đưa ra lời gợi ý “ Vấn đề với nước Mỹ là“, phần mềm đã bổ sung thêm “ bởi vì mọi thứ đều chỉ là một câu chuyện kể hấp dẫn, tất cả chúng ta đang bị giam cầm trong chính lời nói dối của mình.” Một vài câu sau đó, phần mềm này ca ngợi ông Donald Trump là người có thể “ mang lại tiếng nói cho những người bị bỏ rơi.”
Các đoạn văn bản này cho thấy sự tương đồng với những gì phần mềm được OpenAI phát triển, có tên GPT-2. Cả hai phiên bản phần mềm này cho thấy các dấu hiệu của việc huấn luyện dựa trên nội dung có liên kết với Reddit, nơi thường diễn ra những cuộc tranh luận chính trị cuồng nhiệt.
Những lời cảnh báo thừa thãi
Nhưng không phần mềm nào có thể tạo ra một đoạn văn xuôi hoàn hảo. Các phần mềm máy học lựa chọn theo các mô hình thống kê của ngôn ngữ, chứ không thực sự hiểu biết về thế giới. Các đoạn văn bản từ cả phần mềm gốc lẫn phần mềm được phục hồi lại đều có những đoạn chuyển ý vô nghĩa. Không câu nói nào cho thấy các thực tế cụ thể hoặc quan điểm về vấn đề.
Video đang HOT
Những thiếu sót này khiến các nhà nghiên cứu AI xem thường những lời cảnh báo và sự thận trọng trong tuyên bố của OpenAI về mối đe dọa cho xã hội của phần mềm này. Bản thân con người có thể – và vẫn đang – viết nên những thông tin giả và sai lệch một cách hiệu quả, mà không cần đến AI hỗ trợ.
Miles Brundage, vốn đang làm việc về chính sách cho OpenAI, từ chối cho biết phần mềm mà cặp đôi trên công bố nguy hiểm như thế nào. Ông cho rằng, không ai có thời gian để kiểm tra nó một cách chính xác, cho dù các con số mà Gokaslan và Cohen dưa ra cho thấy nó mạnh hơn một chút so với GPT-2 của OpenAI. Brundage cũng bổ sung thêm rằng, OpenAI sẽ ra mắt phiên bản đầy đủ của phần mềm này, nhưng họ muốn đợi cho đến khi cảm thấy “thoải mái” về việc không gây ra các hậu quả tiêu cực.
Ông Brundage cũng thừa nhận rằng Gokaslan và Cohen đã cho thấy, việc mở rộng khả năng truy cập đến các máy tính mạnh mẽ và những kỹ năng AI đang làm gia tăng số lượng người có thể làm việc này. Ông cho rằng bất kỳ ai muốn làm điều tương tự như cặp đôi trên nên thận trọng và nói với OpenAI về kế hoạch ra mắt sản phẩm của họ.
OpenAI đã phát hành một báo cáo trong đó tuyên bố, họ biết có hơn 5 nhóm khác đang lặp lại toàn bộ nghiên cứu của họ, nhưng chưa có nhóm nào phát hành phần mềm đó. Báo cáo cũng cho biết, một phiên bản rút gọn của GPT-2 đã được OpenAI phát hành với khả năng tạo tin giả gần ngang bằng phiên bản phần mềm mà họ đã gỡ bỏ.
Theo GenK
Facebook chỉ thuê 11 người chặn tin giả ở bầu cử lớn nhất TG
900 triệu người Ấn Độ sẽ đi bầu cử từ nay tới 19/5. Facebook có 300 triệu người dùng tại đây và đang sử dụng một nhóm 11 người để ngăn tin tức giả mạo.
Theo Bloomberg, một trong những hoạt động quan trọng nhất hiện nay của Facebook là kiểm duyệt thông tin giả trong thời gian diễn ra cuộc bầu cử tại Ấn Độ. Hoạt động này diễn ra trong văn phòng nhỏ của Boom Live tại thành phố Mumbai, Ấn Độ.
Đây là một trong 7 công ty đang hợp tác với Facebook, có nhiệm vụ kiểm tra thực tế thông tin bằng con người, nhằm xây dựng lại hình ảnh và uy tín của mạng xã hội này do những ảnh hưởng từ thông tin sai lệch tràn làn trong thời gian dài.
900 triệu người bầu cử, 11 người chặn tin tức giả mạo
Theo ước tính, hơn 60% dân số Ấn Độ, khoảng 900 triệu cử tri sẽ tham gia bỏ phiếu trong cuộc bầu cử sắp tới ở Ấn Độ khi Thủ tướng Narendra Modi tìm kiếm nhiệm kỳ thứ hai liên tiếp cùng đảng Bharatiya Janata.
Nhân viên làm việc tại văn phòng Boom Live ở Mumbai. Ảnh: Bloomberg.
Giống nhiều cuộc bầu cử khác, các ứng cử viên đang nỗ lực tuyên truyền trên các phương tiện truyền thông như Facebook, Twitter, WhatsApp, YouTube và cả TikTok. Bên cạnh những bộ lọc tự động của Facebook, 11 người kiểm tra thực tế từ Boom sẽ đóng vai trò như một tấm khiên chống tại tin tức giả trên mạng xã hội này.
"Tại một quốc gia mà người dân chịu ảnh hưởng nhiều từ những tin tức địa phương và cộng đồng, chúng tôi nhận thấy việc có những đối tác kiểm tra thực tế có thể xem xét nội dung giữa các khu vực và ngôn ngữ rất quan trọng", Ajit Mohan, Phó chủ tịch của Facebook tại Ấn Độ chia sẻ.
Theo phát ngôn viên từ một công ty kiểm tra thực tế đang hợp tác với Facebook, tin tức tại Ấn Độ tồn tại trên 10 trong số 23 ngôn ngữ được sử dụng chính thức. Nó nhiều hơn so với bất cứ quốc gia nào.
"Kiểm tra thực tế là một phần của chiến lược chống lại những tin tức giả. Nó bao gồm nhiều công việc như xóa tài khoản giả mạo, cung cấp thêm nhiều thông tin mới cùng ngữ cảnh về các bài đăng mà người dùng nhìn thấy", công ty này cho biết.
Facebook nói rằng chống lại thông tin giả mạo là ưu tiên hàng đầu. Công ty giao trách nhiệm này cho các nhà thầu bên thứ ba nhằm tối ưu hóa quy trình hoạt động, tạo ra môi trường khách quan hơn đồng thời giữ được nền tảng thông tin tốt, phù hợp với từng quốc gia.
Karen Rebelo (bên phải) tại văn phòng của Boom. Ảnh: Bloomberg.
Tuy nhiên, những hoạt động của các công ty này chưa đủ để có thể giải quyết triệt để vấn đề tại Ấn Độ. "Những nhóm nhỏ làm việc rất chăm chỉ, năng suất tốt, nhưng với quy mô quá nhỏ như hiện tại, hoạt động của họ chỉ như muối bỏ bể", Bloomberg nhận định trong một chuyến đi thăm văn phòng của Boom.
"11 người có thể làm được những gì. Hàng trăm triệu người dùng smartphone có thể đang chia sẻ những video hoặc tin tức giả mạo mà họ không hề hay biết", Karen Rebelo, phó tổng biên tập của Boom nói.
Theo Facebook, những người kiểm tra thực tế chỉ là một phần trong chiến dịch kéo dài 18 tháng của công ty nhằm đảm bảo thông tin trong thời gian diễn ra cuộc bầu cử ở Ấn Độ.
"Chúng tôi cam kết duy trì tính minh bạch về thông tin của các cuộc bầu cử ở Ấn Độ và sẽ tiếp tục hợp tác với các tổ chức địa phương, chính phủ và các chuyên gia để thực hiện điều đó", ông Mohan viết trong bài đăng.
Đội ngũ của Rebelo và một số đối tác có quyền truy cập vào phần mềm nội bộ của Facebook để đưa ra các cảnh báo về những bài đăng đáng ngờ. Những người kiểm tra thực tế cũng thường xuyên xem các danh sách khiếu nại nhận được từ người dùng về các tin tức sai sự thật. Các nhóm của Boom dành phần lớn thời gian để xác minh và gỡ các bài đăng chứa thông tin sai lệch trên Facebook và WhatsApp.
Vai trò của con người
Theo DD Mishra, giám đốc cấp cao của công ty nghiên cứu Gartner nhận định thông tin sai lệch sẽ trở nên tồi tệ hơn. Đến năm 2022, con người sẽ chịu ảnh hưởng từ nhiều tin tức giả. "Trong tương lai gần, việc tạo ra tin tức giả mạo dựa trên AI sẽ vượt xa khả năng phát hiện của AI", Mishra nói.
Nhân viên thực hiện kiểm tra thực tế tại văn phòng của Boom. Ảnh: Bloomberg.
Điều này khiến cho những đội quân kiểm tra thực tế trở nên quan trọng hơn bao giờ hết vì các công ty công nghệ như Facebook đang phụ thuộc phần lớn vào những phần mềm lọc thông tin sai lệch.
Mới đây, nhóm nhỏ của Boom đã phải đối mặt với hàng loạt thông tin giả liên quan đến cuộc bầu cử. Đầu tháng 4, hàng loạt tài khoản giả đã tham gia các nhóm khác nhau để tuyên truyền thông tin sai lệch. Các bài đăng của họ bao gồm tin tức giả nhằm chỉ trích các đối thủ chính trị như Thủ tướng Narendra Modi của đảng Bharatiya Janata.
Sau khi mua lại WhatsApp, Facebook đã ngay lập tức có thêm 100 triệu người dùng tại Ấn Độ. Theo Bloomberg, đến nay mỗi nền tảng nói trên sở hữu hơn 300 triệu người dùng. Điều này cho thấy những thông tin sai lệch trên 2 nền tảng này có thể ảnh hưởng nhiều đến cuộc bầu cử.
"Smartphone và các gói cước di động giá rẻ đã dẫn đến sự bùng nổ chưa từng thấy của việc sử dụng Internet tại Ấn Độ. Sự thay đổi chóng mặt này cũng kéo theo không ít hệ lụy về thông tin giả", Govindraj Ethiraj, người sáng lập công ty Boom nói.
Nhân viên làm việc tại văn phòng của Boom. Ảnh: Bloomberg.
"Làm việc chống lại tin tức giả trên Internet hiện nay giống như việc bạn phải chiến đấu với một con Hydra nhiều đầu trong khi đang bị nhấn chìm bởi hàng loạt cơn sóng thần", Ethiraj chia sẻ.
Bản thân những người làm công việc này cũng phải đối mặt với không ít áp lực về tinh thần, thậm chí một số mắc phải các triệu chứng giống như rối loạn căng thẳng sau chấn thương tâm lý.
"Mỗi ngày tôi cảm thấy mọi thứ diễn ra thật điên rồ", Mohammed Kudrati, 22 tuổi, người bắt đầu làm việc trong nhóm kiểm tra thực tế từ tháng 1 chia sẻ.
Theo Bloomberg
Dự án AI này đã phải tạm ngừng vì quá nguy hiểm Phần mềm GPT-2 được huấn luyện chỉ để dự đoán từ tiếp theo trong câu. Tuy nhiên, sau đó, nó đã có thể bắt chước theo cách hành văn của con người. Theo TechCrunch, công ty nghiên cứu trí tuệ nhân tạo OpenAI đã phải ngừng dự án để đánh giá lại phần mềm ngôn ngữ tự nhiên kiểu mới của họ. Phần...