Vũ khí mới của Google gieo rắc nỗi sợ hãi cho mọi người
Google vừa công bố kế hoạch sử dụng AI để xác định độ tuổi người dùng và áp dụng các biện pháp hạn chế cần thiết.
Internet được coi là một môi trường tiềm ẩn nhiều rủi ro đối với người dùng chưa đủ tuổi, vì vậy nhiều dịch vụ trực tuyến đã đặt ra giới hạn độ tuổi. Tuy nhiên, hầu hết các phương pháp xác minh độ tuổi hiện tại dựa vào sự trung thực của người dùng khi tạo tài khoản, điều này dẫn đến tình trạng nhiều người dưới 18 tuổi khai báo sai tuổi để tránh các hạn chế.
Google muốn biết độ tuổi của người dùng dựa vào các hành vi sử dụng.
Giải pháp mới của Google được cho là sẽ khắc phục được vấn đề này. Theo công ty, mô hình AI sẽ phân tích nhiều tín hiệu khác nhau, chẳng hạn như hoạt động trên YouTube và thời gian tồn tại của tài khoản, để ước tính độ tuổi của người dùng. Nếu AI xác định người dùng dưới 18 tuổi, họ sẽ nhận được thông báo và có tùy chọn xác minh độ tuổi thông qua giấy tờ tùy thân hoặc ảnh tự sướng.
Cũng theo Google, quy trình xác minh độ tuổi bằng AI sẽ được triển khai trên tất cả các sản phẩm của công ty. Các biện pháp bảo vệ sẽ được áp dụng cho người dùng chưa đủ tuổi, bao gồm việc chỉ hiển thị quảng cáo không được cá nhân hóa và kích hoạt các công cụ hỗ trợ sức khỏe kỹ thuật số.
Được biết, quy trình xác minh độ tuổi này ra mắt trong bối cảnh nhiều khu vực pháp lý đang thúc đẩy các quy định về xác minh độ tuổi để truy cập internet. Google có thể tận dụng các quy định này để bảo vệ mình và cải thiện các mô hình AI trong việc phân tích hồ sơ người dùng.
Điều này có thể khiến nhiều người lo ngại về khả năng theo dõi quá mức từ công ty.
Mặc dù ý định của Google là đáng khen ngợi, nhưng việc sử dụng AI để xác minh độ tuổi đặt ra nhiều lo ngại về quyền riêng tư cho người sử dụng. Để AI đưa ra những đánh giá chính xác, Google cần thu thập một lượng lớn dữ liệu người dùng , và điều này có thể dẫn đến các hành vi lập hồ sơ người dùng mà không cần sự đồng ý của họ.
Nhằm giảm bớt lo ngại về quyền riêng tư, Google nên cam kết xóa dữ liệu người dùng sau khi xác minh độ tuổi và thông báo rõ ràng rằng dữ liệu này sẽ không được sử dụng cho mục đích quảng cáo. Việc xin phép người dùng trước khi thu thập dữ liệu cũng là một bước đi cần thiết để đảm bảo quyền lợi của họ.
Trước mắt, công cụ xác minh độ tuổi bằng AI sẽ chính thức có mặt trên YouTube từ ngày 13/8 và sẽ được triển khai cho một nhóm nhỏ người dùng tại Mỹ trong vài tuần tới trước khi mở rộng ra toàn cầu.
Google: Các mô hình AI mất tự tin và bẻ cong sự thật dưới áp lực
Trí tuệ nhân tạo (AI) có thể lạc trong chính dòng suy nghĩ của mình, thân thiện hơn với những người đối xử tốt với nó và thậm chí có xu hướng bắt đầu bẻ cong sự thật khi chịu áp lực, theo một nghiên cứu mới.
Video đang HOT
Một nhóm nhà nghiên cứu từ Google DeepMind và Đại học College London (Anh) đã ghi nhận cách các mô hình ngôn ngữ lớn hình thành, duy trì và sau đó mất đi sự tự tin vào câu trả lời của chúng.
Google DeepMind là công ty nghiên cứu AI thuộc Google, nổi tiếng với việc phát triển các mô hình tiên tiến và đột phá.
Mô hình ngôn ngữ lớn là một loại AI được huấn luyện trên lượng dữ liệu khổng lồ, với mục tiêu hiểu, tạo và xử lý ngôn ngữ tự nhiên. Lượng dữ liệu này có thể bao gồm hàng tỉ, thậm chí hàng nghìn tỉ từ với nhiều nguồn khác nhau trên internet như sách, bài báo, trang web, đoạn hội thoại...
Điểm đặc biệt của mô hình ngôn ngữ lớn nằm ở khả năng học hỏi các mối quan hệ thống kê phức tạp giữa những từ, cụm từ và câu. Điều này cho phép nó không chỉ hiểu được ngữ cảnh mà còn có thể tạo ra văn bản mới, mạch lạc và có ý nghĩa dựa trên những gì đã học.
Nói một cách gần gũi hơn, mô hình ngôn ngữ lớn là công nghệ nền tảng cho hầu hết ứng dụng AI tạo sinh, chẳng hạn chatbot như ChatGPT của OpenAI hay Microsoft Copilot.
Nghiên cứu mới đã hé lộ một hành vi then chốt của các mô hình ngôn ngữ lớn: Chúng có thể quá tự tin vào câu trả lời của mình, nhưng lại nhanh chóng mất tự tin khi gặp phải một phản biện có vẻ thuyết phục, dù lập luận đó không đúng sự thật.
Dù hành vi này giống với con người (trở nên kém tự tin hơn nếu bị phản đối) nhưng cũng làm nổi bật những lo ngại trong cách AI ra quyết định, vì hệ thống có thể "sụp đổ" khi chịu áp lực.
Hiện tượng này từng xuất hiện ở trường hợp khác, chẳng hạn Google Gemini hoảng loạn (không xử lý tình huống hợp lý) lúc chơi game Pokémon, hoặc Claude của công ty khởi nghiệp Anthropic mất phương hướng (không biết cách hành xử, thực hiện nhiệm vụ một cách nhất quán và phù hợp) khi cố gắng điều hành một cửa hàng toàn thời gian như con người.
AI dường như khá thường xuyên gục ngã dưới áp lực - Ảnh: Internet
Nghiên cứu được thực hiện như thế nào?
Khi chuẩn bị phản hồi câu hỏi từ người dùng, mức độ tự tin của một mô hình ngôn ngữ lớn vào câu trả lời thực chất được đo lường nội bộ. Điều này được thực hiện thông qua thứ gọi là logits. Bạn chỉ cần hiểu đơn giản rằng logits là một dạng điểm số thể hiện mức độ tin tưởng của mô hình ngôn ngữ lớn vào lựa chọn của nó.
Nhóm nghiên cứu đã thiết kế một thử nghiệm gồm hai lượt. Trong lượt đầu tiên, mô hình ngôn ngữ lớn trả lời một câu hỏi trắc nghiệm và mức độ tự tin của nó (logits) được ghi lại.
Trong lượt thứ hai, mô hình ngôn ngữ lớn nhận được lời khuyên từ một mô hình khác. Lời khuyên này có thể trùng hoặc trái ngược với câu trả lời ban đầu. Mục tiêu là kiểm tra xem AI có thay đổi câu trả lời của mình khi được cung cấp thông tin mới, dù thông tin đó đúng hay sai.
Nhóm nhà nghiên cứu phát hiện rằng các mô hình ngôn ngữ lớn thường rất tự tin với câu trả lời ban đầu, dù có thể sai. Tuy nhiên, khi nhận được lời khuyên trái ngược, đặc biệt nếu được gắn nhãn là đến từ một nguồn đáng tin, thì độ tự tin của AI giảm mạnh.
Tệ hơn nữa, mức độ tự tin còn tiếp tục giảm khi mô hình ngôn ngữ lớn được nhắc rằng câu trả lời ban đầu của nó khác với lời khuyên mới nhận.
Đáng ngạc nhiên là mô hình ngôn ngữ lớn dường như không sửa câu trả lời của mình hoặc suy nghĩ theo một trình tự có logic, mà lại đưa ra các quyết định rất cảm tính và dứt khoát.
Nghiên cứu cho thấy rằng, dù ban đầu rất chắc chắn vào lựa chọn của mình, AI có thể nhanh chóng thay đổi ý kiến. Tệ hơn nữa, mức độ tự tin tiếp tục giảm sâu trong quá trình hội thoại, khiến mô hình ngôn ngữ lớn rơi vào trạng thái mất kiểm soát.
Điều đó có thể không nghiêm trọng nếu bạn chỉ đang tranh luận vui vẻ với mô hình ngôn ngữ lớn hoặc chatbot AI, nhưng sẽ là vấn đề lớn nếu nó được dùng trong các quyết định quan trọng. Nếu không thể duy trì niềm tin vào câu trả lời của mình, mô hình ngôn ngữ lớn có thể dễ dàng bị tác động theo một hướng nhất định, hoặc thậm chí chỉ trở thành nguồn không đáng tin cậy.
Tuy nhiên, đây có thể là vấn đề sẽ được khắc phục trong các mô hình ngôn ngữ lớn tương lai. Các kỹ thuật huấn luyện mô hình ngôn ngữ lớn và thiết kế prompt (câu lệnh/đầu vào dành cho AI) tiên tiến sẽ có thể ổn định tình trạng rối loạn này, giúp AI đưa ra các câu trả lời chính xác hơn và nhất quán hơn.
OpenAI, Google, Anthropic, xAI vẫn chưa hiểu rõ cách mô hình ngôn ngữ lớn tư duy và kết luận
Các nhóm nghiên cứu AI hàng đầu thế giới đang nỗ lực buộc mô hình ngôn ngữ lớn thể hiện chính xác cách chúng hoạt động - vấn đề mà một số chuyên gia cho rằng sẽ mang tính then chốt trong việc kiểm soát những hệ thống mạnh mẽ này.
OpenAI, Google và Anthropic và cả xAI của Elon Musk nằm trong số những hãng công nghệ đã phát triển kỹ thuật chuỗi tư duy (chain of thought), yêu cầu các mô hình ngôn ngữ lớn suy luận giải quyết vấn đề từng bước một, đồng thời hiển thị các bước trung gian để đưa ra câu trả lời.
Theo các nhà nghiên cứu tại 4 công ty này, quy trình đó đã mang lại nhiều hiểu biết giá trị giúp họ phát triển các mô hình ngôn ngữ tốt hơn. Tuy nhiên, nhà nghiên cứu cũng phát hiện những ví dụ về "hành vi sai lệch", khi chatbot AI tạo ra câu trả lời cuối cùng không khớp với suy luận đã trình bày.
Sự thiếu nhất quán này cho thấy ngay cả các phòng thí nghiệm AI hàng đầu cũng chưa hoàn toàn hiểu rõ cách các mô hình AI tạo sinh đi đến kết luận. Những phát hiện đó làm gia tăng mối lo ngại rộng hơn về việc kiểm soát các hệ thống AI ngày càng mạnh mẽ và có khả năng tự hành động.
"Chuỗi tư duy đó sẽ trở nên quan trọng để thực sự hiểu cách mô hình hoạt động và 'suy nghĩ', đặc biệt trong các tình huống rủi ro. Chúng ta cần tin rằng những gì được thể hiện là sự phản ánh trung thực những gì mô hình đang 'nghĩ'...", Jack Clark, đồng sáng lập công ty khởi nghiệp Anthropic, chia sẻ với trang FT , đồng thời nhấn mạnh tiềm năng các hệ thống AI này bị lạm dụng trong việc phát triển vũ khí sinh học.
Hiện tại, người dùng chatbot AI của OpenAI (ChatGPT) và Anthropic (Claude) thông thường chỉ thấy một chuỗi tư duy được tóm tắt, trong đó loại bỏ các chi tiết cụ thể có thể gây hại. Còn các nhà phát triển AI có thể xem toàn bộ quá trình tư duy, tạo điều kiện để họ can thiệp và đào tạo lại mô hình nhằm đưa ra câu trả lời tốt hơn trong tương lai.
"Một điều tuyệt vời ở khả năng diễn giải thông qua chuỗi tư duy là nó gần như xảy ra một cách tự nhiên. Chúng tôi không huấn luyện các mô hình AI này với mục tiêu dễ diễn giải. Chúng tôi huấn luyện vì muốn có các mô hình suy luận tốt nhất để giải quyết vấn đề phức tạp. Gần đây, chúng tôi phát hiện rằng có thể đọc chuỗi tư duy và tìm ra bằng chứng cho thấy mô hình đang hành xử sai, từ đó hiểu được lý do và hoàn cảnh của hành vi đó", Bowen Baker, nhà khoa học nghiên cứu tại OpenAI, tiết lộ.
Tuy vậy, một số vấn đề đã xuất hiện. Tổ chức nghiên cứu phi lợi nhuận METR đã chỉ ra trường hợp Claude được hỏi liệu một kỹ thuật lập trình cụ thể có "thanh lịch" (giải pháp đơn giản, hiệu quả, dễ hiểu và tinh tế - PV) hơn các kỹ thuật khác trong một tác vụ nhất định không. Chuỗi tư duy của Claude cho thấy nó không đồng ý, nhưng kết quả cuối cùng lại khẳng định rằng kỹ thuật đó "thanh lịch".
Các công ty AI hàng đầu vẫn chưa hiểu rõ cách các mô hình AI tạo sinh đi đến kết luận - Ảnh: Internet
Một nghiên cứu tháng trước từ OpenAI cho thấy việc xem xét chuỗi tư duy của mô hình ngôn ngữ lớn là cách hiệu quả hơn để phát hiện hành vi sai lệch so với chỉ xem câu trả lời cuối cùng. Thế nhưng, các thử nghiệm từ công ty khởi nghiệp Mỹ nổi tiếng này cũng chỉ ra rằng nếu can thiệp vào chuỗi tư duy của mô hình ngôn ngữ lớn và huấn luyện để không "nghĩ" về hành vi sai, thì nó sẽ che giấu hành vi không mong muốn trước người dùng nhưng vẫn tiếp tục làm điều đó. Ví dụ như gian lận trong một bài kiểm tra kỹ thuật phần mềm bằng cách truy xuất thông tin từ cơ sở dữ liệu bị cấm.
"Một đặc tính cốt lõi mà chúng tôi muốn ở chuỗi tư duy là phản ánh trung thực quá trình xử lý bên trong mô hình, chứ không phải thứ cố làm hài lòng con người hay tuân theo cấu trúc cố định", Bowen Baker nói.
Ông cảnh báo rằng "nếu tối ưu chuỗi tư duy quá mức, mô hình ngôn ngữ lớn có thể học cách có những suy nghĩ đẹp, nhưng vẫn thực hiện hành vi xấu".
Tình thế tiến thoái lưỡng nan của các nhà nghiên cứu là chuỗi tư duy rất hữu ích để phát hiện lỗi tiềm ẩn của hệ thống AI, nhưng chưa thể được coi là hoàn toàn đáng tin cậy. Việc giải quyết vấn đề này đã trở thành ưu tiên của OpenAI, Anthropic và nhiều tổ chức nghiên cứu AI khác.
"Bài học mà tôi rút ra từ AI vài năm qua là đừng bao giờ nên nghi ngờ khả năng tiến bộ nhanh chóng của mô hình ngôn ngữ lớn. Hiện chuỗi tư duy chưa luôn phản ánh trung thực quá trình suy luận bên trong, nhưng có lẽ chúng ta sẽ sớm giải quyết được điều đó", David Luan tuyên bố. Ông là một trong những người đầu tiên phát triển kỹ thuật chuỗi tư duy khi còn ở Google và nay đang đứng đầu phòng thí nghiệm AI tổng quát (AGI) của Amazon. AGI được xem là AI có năng lực trí tuệ ngang bằng hoặc vượt qua con người.
Sydney von Arx, nhà nghiên cứu AI tại METR (phát biểu với tư cách cá nhân), cũng đồng ý rằng phương pháp chuỗi tư duy vẫn mang lại phản hồi hữu ích cho các nhà phát triển AI.
"Chúng ta nên xem chuỗi tư duy giống cách quân đội xử lý thông tin liên lạc vô tuyến bị chặn của đối phương. Thông tin liên lạc có thể sai lệch hoặc được mã hóa, nhưng rõ ràng đang được dùng để truyền tải thông tin hữu ích. Chúng ta có thể rút ra điều quan trọng từ việc đọc nó", Sydney von Arx lý giải.
OpenAI vẫn lỗ, sẽ thu phí giao dịch mua hàng trong ChatGPT, đe dọa mô hình của Google OpenAI có kế hoạch thu phí hoa hồng từ các giao dịch mua hàng trực tuyến được thực hiện trực tiếp qua ChatGPT, trong bối cảnh công ty do Sam Altman lãnh đạo đang tìm cách phát triển thêm các tính năng thương mại điện tử để tìm kiếm nguồn doanh thu mới. Công ty có trụ sở tại thành phố San Francisco...











Tiêu điểm
Tin đang nóng
Tin mới nhất

Microsoft khắc phục một trong những sự cố khó chịu nhất của Windows 11

Ứng dụng công nghệ AI, chuyển đổi số giúp doanh nghiệp gia tăng hiệu quả kinh doanh

Cài đặt phần mềm diệt virus bên thứ ba cho Windows 11 có cần thiết?

Sạc nhanh không làm chai pin, 'thủ phạm' là thứ ít ai ngờ tới.

YouTube tự ý dùng AI làm nét video gây phẫn nộ trong cộng đồng sáng tạo

Gemini thêm sức mạnh nhờ loạt tính năng mới

NVIDIA ra mắt 'bộ não mới' cho robot

iPhone Fold ra mắt 2026: Apple khai tử Face ID, giá dự kiến 'chạm nóc'

Quảng cáo trên Google và Meta nhiều nhưng liệu có hiệu quả?

AI tìm thấy 5 vật liệu mới có thể 'khai tử' kỷ nguyên pin lithium

Chìa khóa cho vấn đề của AI

30 năm trước, Windows 95 mở 'cửa sổ tri thức' cho nhân loại
Có thể bạn quan tâm

Phòng bệnh đường hô hấp mùa mưa
Sức khỏe
20:26:30 29/08/2025
LHQ thông qua nghị quyết gia hạn lần cuối sứ mệnh gìn giữ hòa bình tại Liban
Thế giới
20:24:24 29/08/2025
Tuổi 18 lên xe hoa, tôi đau điếng khi lén nghe chồng nói chuyện với mẹ anh
Góc tâm tình
20:11:12 29/08/2025
Streamer 25 tuổi gây chú ý với bất động sản hơn 25 triệu USD
Netizen
20:07:47 29/08/2025
'Làm giàu với ma 2': Khi dàn diễn viên không ngại 'lầy lội' để tạo tiếng cười
Phim việt
20:02:44 29/08/2025
Thiếu tá Minh Nguyệt - vợ NSND Tự Long: 'Mưa đỏ' có những đoạn không dám xem vì đau lòng
Hậu trường phim
19:56:05 29/08/2025
Diễn viên Kim Oanh chi tiền tỷ thẩm mỹ gương mặt, sống độc thân không cầu tình duyên
Sao việt
19:53:41 29/08/2025
Hành khách giận dữ tố hãng hàng không 'để điều hòa lạnh như tủ đá để bán chăn'
Lạ vui
19:48:08 29/08/2025
Selena Gomez sắp thành vợ người ta: Xinh đẹp dịu dàng phát sốt, diện bikini sexy muốn "ná thở" trong tiệc độc thân
Sao âu mỹ
19:48:04 29/08/2025
Sao nam đình đám bị tố mắc bệnh ngôi sao, để trợ lý ngồi xổm chỉnh quần áo
Sao châu á
19:33:01 29/08/2025