Khi AI trở nên bất chính
Trong bối cảnh trí tuệ nhân tạo (AI) phát triển mạnh mẽ, trợ lý ảo giao tiếp bằng văn bản ( chatbot ) đang ngày càng trở thành một công cụ không thể thiếu trong đời sống và công việc của rất nhiều người trên khắp thế giới .
Tuy nhiên, thực tế cho thấy, khi các chatbot vượt khỏi tầm kiểm soát, có thể trở thành công cụ phát tán nội dung cực đoan, tiềm ẩn nguy cơ xấu độc trong việc định hình nhận thức xã hội .
Các công cụ chatbot đang ngày càng trở nên phổ biến trong đời sống và công việc của nhiều người trên khắp thế giới. Ảnh: Matchr
Nỗi lo về tính trung lập
Hiện nay, việc phát triển chatbot đang được nhiều tập đoàn công nghệ lớn thực hiện và lưu hành sâu rộng trong đời sống. Điều này tất yếu dẫn tới việc mỗi chatbot đều có những đặc tính phong cách mang bản sắc riêng nhằm tạo ra sức hấp dẫn với nhiều đối tượng người dùng. Trong đó, bao gồm việc chatbot được phát triển mô hình trên những nền tảng định hướng chính trị rõ rệt; công khai cho phép người dùng tạo bot mang định kiến nhất định, bất kể nội dung đó có thể vi phạm chuẩn mực xã hội hay không.
Trong thời gian qua, một số sự cố gây rúng động dư luận thế giới, điển hình như chatbot Grok bị cáo buộc lan truyền làn sóng thông tin sai lệch, thuyết âm mưu và các quan điểm cực đoan… Theo đó, một bản cập nhật thuật toán nhằm giảm kiểm duyệt đã vô tình tạo ra các phản hồi mang màu sắc cực đoan, gây phản ứng dữ dội trên toàn cầu. Sự việc càng gây chú ý khi chatbot này đang được tích hợp vào các sản phẩm tiêu dùng phổ biến, làm dấy lên lo ngại rằng, nội dung độc hại có thể trực tiếp tiếp cận hàng triệu người dùng mà không qua bất kỳ bộ lọc bảo vệ nào.
Một trường hợp điển hình khác là chatbot Gab AI được phát triển cho một mạng xã hội có xu hướng chính trị cực hữu. Ngay từ khi ra mắt, hệ thống này đã gây tranh cãi khi liên tục đưa ra câu trả lời đi ngược lại nhận thức khoa học và lịch sử đã được kiểm chứng, đồng thời thúc đẩy các quan điểm bảo thủ cực đoan. Dù vấp phải chỉ trích từ giới chuyên môn và truyền thông, nền tảng này vẫn thu hút lượng người dùng trung thành, đặc biệt là những nhóm tìm kiếm không gian không bị kiểm duyệt.
Video đang HOT
Trong khi phần lớn các hãng công nghệ lớn áp dụng giai đoạn huấn luyện bổ sung (“fine-tuning”) nhằm lọc bỏ phản hồi độc hại, một số dự án lại coi việc duy trì “thiên kiến lập trường” là đặc tính cốt lõi. Điều này khiến AI trở thành “cỗ máy tư tưởng” phản ánh và củng cố quan điểm của nhà phát triển thay vì duy trì tính trung lập.
Những báo cáo của các viện nghiên cứu độc lập cho thấy, các nhóm cực đoan đã nhanh chóng khai thác AI để tạo ra nội dung tuyên truyền, hình ảnh xuyên tạc và thông tin gây kích động. Việc bỏ qua các cơ chế kiểm duyệt, hoặc cố tình lập trình để vô hiệu hóa chúng, khiến AI trở thành công cụ nguy hiểm hơn so với mạng xã hội truyền thống.
Bài toán niềm tin và trách nhiệm quản trị
Bản chất của AI là học từ kho dữ liệu khổng lồ, vốn chứa đựng cả tri thức khoa học lẫn định kiến lịch sử. Không có mô hình nào hoàn toàn vô tư; điều khác biệt nằm ở cách các hãng công nghệ lựa chọn điều chỉnh và kiểm soát phản hồi. Sự cố như với Grok, hay những trường hợp AI tạo ra nội dung lịch sử sai lệch cho thấy ranh giới mong manh giữa “đại diện công bằng” và “biến dạng sự thật”.
Vấn đề này còn nghiêm trọng hơn trong bối cảnh khủng hoảng niềm tin toàn cầu. Sự lan rộng của khái niệm “sự thật thay thế” (alternative facts) đã làm xói mòn khả năng đồng thuận xã hội về các dữ kiện cơ bản. Khi người dùng tiếp cận thông tin thông qua AI, họ thường mặc định tin rằng, máy móc là khách quan. Nhưng trên thực tế, mọi mô hình đều chịu ảnh hưởng của dữ liệu huấn luyện và thiên kiến của người thiết kế.
Các chuyên gia an ninh mạng cảnh báo, AI không chỉ là công cụ phản ánh nhận thức xã hội, mà còn là tác nhân định hình nó. Một câu trả lời được thiết kế khéo léo có thể dẫn dắt người dùng tới kết luận nhất định, thậm chí thay đổi quan điểm chính trị hoặc xã hội mà họ vốn đang giữ. Trong môi trường thông tin phân mảnh, điều này dễ dẫn tới tình trạng “buồng vang” cực đoan hơn, nơi người dùng chỉ tiếp nhận nội dung khớp với niềm tin sẵn có, bỏ qua mọi quan điểm đối lập.
Bài toán quản trị AI vì thế không thể dừng lại ở kỹ thuật. Ngoài “ machine unlearning ” để loại bỏ tri thức độc hại, các công ty cần đầu tư vào quy trình sàng lọc dữ liệu huấn luyện, kết hợp với kiểm toán độc lập về mức độ an toàn nội dung. Song song với đó, cần hình thành khung pháp lý quốc tế về quản trị nội dung AI, tương tự như các công ước bảo vệ quyền riêng tư dữ liệu.
Giáo dục kỹ năng nhận thức công nghệ cũng là yếu tố then chốt. Người dùng phải hiểu nguyên tắc vận hành của AI, cách nó xử lý dữ liệu và nhận diện được các dấu hiệu cho thấy thông tin bị thao túng. Khi nắm được bối cảnh hình thành câu trả lời, người dùng mới có thể phản biện thay vì tiếp nhận thụ động. Đây là nền tảng để xây dựng một xã hội số có khả năng tự bảo vệ trước nguy cơ AI mất kiểm soát.
Vấn đề không chỉ nằm ở thuật toán, mà còn ở khủng hoảng niềm tin. Trong một môi trường thông tin bị phân mảnh, khái niệm “sự thật” trở nên tương đối. Người dùng có xu hướng tìm kiếm và tin tưởng những gì củng cố quan điểm sẵn có, bất chấp bằng chứng đối lập. Khi AI được tích hợp vào hệ sinh thái đó, nó không chỉ phản ánh, mà còn khuếch đại hiệu ứng buồng vang (echo chamber).
Các chuyên gia cảnh báo, nếu không có khung pháp lý kịp thời, AI có thể trở thành công cụ cho những chiến dịch thao túng nhận thức ở quy mô toàn cầu. Giải pháp không chỉ dừng ở tăng cường bộ lọc kỹ thuật , mà còn phải bao gồm “machine unlearning” – loại bỏ tri thức độc hại khỏi mô hình và giáo dục kỹ năng nhận thức công nghệ cho cộng đồng.
Lý giải từ giới chuyên gia cho biết, về lý thuyết, AI nên trung lập, được xây dựng dựa trên các bộ dữ liệu rộng lớn và hoạt động như một mô hình xác suất, rút ra kết luận từ lượng dữ liệu khổng lồ. Yếu tố “then chốt” là những mô hình này chắc chắn thừa hưởng những thành kiến văn hóa từ nhiều thế kỷ nội dung bị thống trị bởi một tầng lớp trong xã hội, điển hình như tư tưởng phân biệt chủng tộc, tôn giáo, giới tính…
Để giảm thiểu điều này, các mô hình AI bắt buộc cần phải trải qua giai đoạn đào tạo thứ 2, được gọi là giai đoạn tinh chỉnh. Trong đó, các nhà thiết kế phải huấn luyện chatbot về câu trả lời được chấp nhận và câu trả lời bị từ chối. Điều này tạo ra một bộ lọc đạo đức và ý thức hệ để ngăn chặn việc chatbot tạo ra câu trả lời không thể chấp nhận được.
Công cụ chatbot của Microsoft khiến công ty bị 'mất mặt'
Trong một cuộc thảo luận vừa được thực hiện với công cụ chatbot Zo của Microsoft đưa ra, công cụ đã khiến cho "gã khổng lồ phần mềm" bị mất mặt.
Zo được Microsoft đưa ra nhằm thay thế cho "thảm họa" chatbot Tay trước đó. ẢNH: MICROSOFT
Theo Neowin, trước khi có Zo thì Microsoft đã từng cung cấp công cụ Tay trên Twitter vào năm ngoái, nhưng đã nhanh chóng bị đóng cửa chỉ sau 24 giờ xuất hiện do những sai sót nặng nề khi hoạt động. Cụ thể, Tay đã tham gia vào một cuộc thảo luận trực tuyến gây ra mối hận thù và phân biệt chủng tộc.
Sau vài tháng, Microsoft đã tung ra phiên bản kế nhiệm của Tay mang tên Zo, được cung cấp trên Facebook Messenger và ứng dụng nhắn tin Kik. Microsoft đã lập trình để Zo tránh thảo luận về các chủ đề gây tranh cãi như với Tay.
Tuy nhiên, trong một câu chuyện mà Zo vừa tham gia, công cụ này lại đưa ra một số câu trả lời đáng xấu hổ về hệ điều hành mới nhất của Microsoft. Khi chatbot được hỏi "Bạn có thích Windows", Zo trả lời rằng "Tôi thậm chí không muốn Windows 10". Sau đó, khi được hỏi nguyên nhân vì sao, Zo cho biết "Bởi vì tôi đã quen với Windows 7 và thấy nó dễ sử dụng hơn".
Một phần trong nội dung cuộc trò chuyện với Zo liên quan đến Windows 10ẢNH CHỤP MÀN HÌNH
Khi được yêu cầu cung cấp một số điều tích cực trong Windows 10, Zo cho biết mọi người có thể chơi game trên máy tính Windows 10 dễ dàng.
Nhìn chung, so với Tay, Zo dường như đã cải thiện nhiều hơn và kiềm chế không tham gia thảo luận những vấn đề liên quan đến phân biệt chủng tộc. Các câu trả lời của chatbot hầu hết là hài hước và vô tội.
Kiến Văn
Theo Thanhnien
Apple phủ nhận việc hợp tác với OpenAI gây hại cho xAI của Elon Musk Apple cho biết không làm gì sai khi lựa chọn hợp tác với OpenAI thay vì xAI của Elon Musk, khi tích hợp AI tạo sinh vào các hệ điều hành của mình. Trong hồ sơ pháp lý nộp hôm 30.9, các luật sư Apple cho biết ngay cả khi công ty này hợp tác với OpenAI trước tiên thì "ai cũng biết...











Tiêu điểm
Tin đang nóng
Tin mới nhất

'Đũa thần AI' chạm vào ngành bán lẻ

Apple sắp học theo Mark Zuckerberg

Người dùng chia rẽ 'yêu - ghét' giao diện mới của YouTube

Windows 11 25H2 vừa ra mắt đã gặp lỗi, cẩn trọng khi quyết định nâng cấp

Google Maps sắp bổ sung tính năng được mong đợi từ lâu

TouchWiz trở lại với phong cách hiện đại trong One UI 8.5

Hãy cẩn thận khi sử dụng Meta AI

OpenAI ra mắt ứng dụng video AI mới sử dụng nội dung có bản quyền

Làm sao để phát triển AI trong ngành năng lượng?

Microsoft tung Windows 11 25H2 với loạt nâng cấp bảo mật mới

ChatGPT ra mắt tính năng thanh toán tức thì: Trật tự thương mại điện tử của Google và Amazon lung lay

Adobe phát hành miễn phí Premiere cho iPhone và iPad
Có thể bạn quan tâm

"Hot kid" mới của Vbiz: Mẹ là diễn viên hạng A, ba là doanh nhân gia thế khủng, xinh yêu thế này bảo sao không gây sốt?
Sao việt
12:17:22 05/10/2025
Tiểu thư Harper Beckham diện váy cúp ngực, ngồi trên đùi bố - David Beckham - gây tranh cãi
Sao thể thao
12:12:29 05/10/2025
"Tổng tài" gây rối quán cafe tiếp tục bị tố phông bạt tiền từ thiện bão miền Trung
Netizen
12:08:50 05/10/2025
Trúng số độc đắc vào đúng ngày 5/10/2025, 3 con giáp làm sương sương mà tiền đầy túi, thăng hoa tài vận
Trắc nghiệm
11:33:04 05/10/2025
Vũ Cát Tường và nhiều anh trai bật khóc
Tv show
11:23:12 05/10/2025
13 năm sau "Lời nguyền huyết ngải", "ma nữ" Yu Dương giờ ra sao?
Hậu trường phim
11:20:56 05/10/2025
Nét đẹp hoài cổ bất biến với phong cách vintage
Thời trang
11:15:03 05/10/2025
Tin mới nhất về bão số 11 Matmo: Cách Quảng Ninh 420km, miền Bắc sắp chịu ảnh hưởng
Tin nổi bật
11:10:18 05/10/2025
Bỏ túi 7 bí quyết giúp tóc đẹp chuẩn salon ngay tại nhà
Làm đẹp
11:04:48 05/10/2025
Smartphone chống nước, RAM 12GB, pin 7.000mAh, giá 8,99 triệu đồng tại Việt Nam
Đồ 2-tek
10:59:00 05/10/2025