AI kiềm chế người nóng giận
Thuật toán AI được Facebook thử nghiệm có thể phát hiện những cuộc tranh cãi trong hội nhóm, sau đó báo cáo cho quản trị viên để họ kịp thời can thiệp.
Theo CNN , Facebook mới tung ra một số phần mềm hỗ trợ hơn 70 triệu quản trị viên trong các hội nhóm trên nền tảng của mình. Trong đó, hệ thống AI mới được Facebook phát triển có thể phát hiện các vụ xung đột, cãi vã trên các hội nhóm. Công cụ “cảnh báo xung đột” dựa trên thuật toán AI sẽ thông báo đến các quản trị viên của nhóm về một nội dung “gây tranh cãi” hoặc “không lành mạnh”. Mạng xã hội ngày có 2,85 tỷ người dùng hàng tháng với khoảng 1,8 tỷ người đang hoạt động trong hàng chục triệu nhóm khác nhau.
Công cụ AI cho phép quản trị viên phát hiện nhanh các cuộc tranh cãi sắp nổ ra trong nhóm và hạn chế thời gian bình luận của các thành viên.
Trong nhiều năm, các nền tảng như Facebook và Twitter ngày càng dựa vào AI để xác định phần lớn những gì người dùng trực tuyến chia sẻ bằng các công cụ phát hiện câu chữ có tính chất gây thù hận trên dòng thời gian. Điều này có thể hỗ trợ các nhà quản lý hội nhóm dễ dàng hơn trong việc kiểm duyệt cũng như can thiệp kịp thời để tránh các xung đột không đáng có.
Tuy nhiên, đôi lúc AI vẫn khá lúng túng trong việc hiểu được sự tinh tế của ngôn ngữ trong những ngữ cảnh khác nhau. Hơn nữa, hệ thống kiểm duyệt bí mật của AI cũng có thể khiến người dùng cảm thấy bị tổn thương. Phát ngôn viên của Facebook cho biết AI của công ty sẽ sử dụng một số tín hiệu từ các cuộc trò chuyện để xác định thời điểm gửi cảnh báo xung đột, bao gồm thời gian trả lời bình luận và lượng bình luận trên một bài đăng. Ông cho biết một số quản trị viên đã thiết lập cảnh báo từ khóa có thể phát hiện các chủ đề có thể dẫn đến tranh luận.
Video đang HOT
Nếu một quản trị viên nhận được cảnh báo xung đột, họ có thể thực hiện các hành động làm chậm các cuộc trò chuyện với hi vọng làm dịu người dùng. Những động thái này có thể bao gồm hạn chế tạm thời tần suất đăng bài bình luận của một số thành viên trong nhóm và xác định tốc độ nhận xét có thể được thực hiện trên các bài đăng cá nhân.
Trong một cuộc tranh cãi giả mà Facebook thực hiện, một người dùng đã nóng giận với những từ ngữ tranh cãi khó nghe, như “những con chó của người khác”, “im đi, thật ngu ngốc”, “nếu điều vô nghĩa này xảy ra, tôi sẽ rời khỏi nhóm”… Một thông báo sẽ được gửi đến quản trị viên với thanh tiêu đề: “Cảnh báo kiểm duyệt”. Bên dưới là những từ khoá có liên quan đến vấn đề đang được tranh cãi. Tiếp đến là một khung cho phép quản trị viên cài đặt thời gian hạn chế bình luận với các tài khoản. Ngoài ra công cụ này còn cho phép hạn chế bình luận của một thành viên theo các chủ đề trong khoảng thời gian tính bằng ngày hoặc thậm chí nhiều năm.ÂI
Công cụ này vẫn đang trong giai đoạn thử nghiệm, Facebook chưa tuyên bố thời gian phát hành chính thức cho người dùng toàn cầu.
Con người có xu hướng lợi dụng AI
Một số nghiên cứu chỉ ra rằng con người có xu hướng chống đối, lợi dụng AI vì cho rằng đó là những "con bot" không có tri giác.
Trí tuệ nhân tạo đang dần bắt kịp con người khi các thuật toán có thể liên tục đánh bại con người trong các trò chơi, tạo ra hình ảnh khuôn mặt, viết báo và thậm chí là lái xe tốt hơn hầu hết thanh thiếu niên.
Nhưng AI vẫn chưa hoàn hảo. Lấy Woebot làm ví dụ.
Woebot là một ứng dụng AI trên smartphone cung cấp dịch vụ tư vấn, sử dụng hình thức đối thoại để hướng dẫn người dùng các kỹ thuật cơ bản của liệu pháp nhận thức - hành vi. Tuy nhiên, nhiều nhà tâm lý học nghi ngờ liệu một thuật toán AI có đủ khả năng thể hiện sự đồng cảm cần thiết để làm cho liệu pháp hoạt động hiệu quả hay không.
"Những ứng dụng này thực sự rất thiếu một thành phần thiết yếu trong việc trị liệu, đó là mối quan hệ giao tiếp", Linda Michaels, một nhà trị liệu tại Chicago, đồng chủ tịch của Mạng lưới Hành động Trị liệu Tâm lý, nói với The Times .
Tất nhiên, sự đồng cảm là một con đường hai chiều và con người chúng ta thường không thể hiện nhiều điều đó cho những những thứ như AI. Nhiều nghiên cứu đã phát hiện ra rằng con người thường không sẵn sàng hợp tác với AI trong nhiều tình huống, trong khi ít có khả năng làm như vậy hơn nếu bot là một người thực sự.
Ophelia Deroy, nhà triết học tại Đại học Ludwig Maximilian, ở Munich, cho biết: "Có vẻ còn thiếu điều gì đó liên quan đến sự tương tác qua lại. Về cơ bản, chúng ta sẽ cư xử với một người lạ còn tốt hơn với AI".
Trong một nghiên cứu gần đây, Tiến sĩ khoa học thần kinh Deroy và các đồng nghiệp đã tìm hiểu lý do tại sao lại như vậy. Các cuộc thử nghiệm tiến hành ghép các đối tượng là con người và bot AI với các người chơi bí mật, sau đó mỗi cặp sẽ chơi một trong một loạt các trò chơi cổ điển như Trust, Prisoner's Dilemma, Chicken và Stag Hunt, cũng như trò chơi mà họ tạo ra có tên là Reciprocity nhằm đánh giá và khen thưởng sự hợp tác.
Con người thường thể hiện ít nghĩa vụ đạo đức, kém hợp tác hơn khi tiếp xúc với AI.
Sự chống đối AI thường được cho là phản ánh sự thiếu tin tưởng. Tiến sĩ Deroy và các đồng nghiệp của bà đưa ra một kết luận khác rằng mọi người ít có khả năng hợp tác với bot ngay cả khi bot rất muốn hợp tác. Việc này không phải do chúng ta không tin tưởng AI mà là do chúng ta biết rằng bot được tạo ra để nghe lời, là một kẻ ngây thơ, vì vậy con người có xu hướng lợi dụng nó.
Tiến sĩ Deroy nói: "Những người tham gia không chỉ có xu hướng không đáp lại ý định hợp tác của các trí tuệ nhân tạo, mà còn phản bội lòng tin của các bot, họ không chia sẻ khi mắc sai lầm trong trò chơi với các bot, trong khi sẵn sàng làm như vậy với con người". Deroy nói thêm, "Bạn đơn giản chỉ làm ngơ AI và không có cảm giác rằng bạn đã vi phạm bất kỳ nghĩa vụ chung nào".
Điều này có thể có ý nghĩa trong thế giới thực. Khi chúng ta nghĩ về AI, chúng ta có xu hướng nghĩ về Alexa và Siri, những trợ lý ảo với thời gian dài tiếp xúc hoàn toàn có khả năng hình thành một loại mối quan hệ thân mật nào đó. Nhưng trên thực tế, hầu hết các tương tác của chúng ta với AI sẽ là những cuộc gặp gỡ một lần, và thường là không lời. Hãy tưởng tượng bạn đang lái xe trên đường cao tốc và một chiếc ôtô làn bên đang muốn vượt sang phía trước bạn. Nếu nhận thấy rằng chiếc xe bên cạnh là phương tiện không người lái, bạn sẽ ít có khả năng cho nó vượt lên. Và nếu thuật toán AI không tính đến hành vi xấu này của con người, một vụ tai nạn có thể xảy ra sau đó.
Tiến sĩ Deroy nói: "Điều duy trì sự hợp tác trong xã hội ở bất kỳ quy mô nào là việc thiết lập các chuẩn mực nhất định. Chức năng xã hội của cảm giác tội lỗi chính xác là thứ khiến mọi người tuân theo các chuẩn mực xã hội và khiến họ phải thỏa hiệp, hợp tác với người khác. Tuy nhiên chúng ta không tiến hóa để có các chuẩn mực xã hội hoặc đạo đức với các sinh vật không có tri giác như AI".
Cũng có những hậu quả tương tự đối với AI. "Nếu mọi người đối xử tệ với nó, và nó đã được lập trình để học hỏi từ những gì nó trải qua", ông nói. "Một AI được lập trình ban đầu phải nhân từ với con người trên đường sẽ không thể làm như vậy mãi, bởi vì nếu không nó sẽ bị mắc kẹt mãi mãi".
Như vậy bài kiểm tra Turing thực sự trong tương lai có thể là bài kiểm tra cơn thịnh nộ trên đường. Khi một chiếc ôtô tự lái bắt đầu bấm còi inh ỏi từ phía sau vì bạn đã tạt đầu nó, bạn sẽ biết rằng nhân loại đã đạt đến đỉnh cao của thành tựu. Đến lúc đó, hy vọng rằng liệu pháp AI sẽ đủ tinh vi để giúp những chiếc xe không người lái giải quyết các vấn đề về quản lý cơn giận của chúng.
Kính AI mở khoá được 19 smartphone Android Chiếc kính đặc biệt được làm từ thuật toán AI có thể bẻ khoá bảo mật bằng nhận dạng khuôn mặt của hàng loạt smartphone phổ biến trên thị trường. Real AI, một nhóm được thành lập bởi Viện Nghiên cứu Trí tuệ Nhân tạo thuộc Đại học Thanh Hoa, Trung Quốc, vừa công bố kết quả nghiên cứu mới: Hàng loạt smartphone...