Google, TPU và cuộc thay đổi nền tảng của cuộc đua AI
Trong thập kỷ qua, mọi cuộc trò chuyện về cuộc đua AI gần như đều xoay quanh mô hình thuật toán , dữ liệu huấn luyện và các bước đột phá phần mềm.
Google lấy lại thế chủ động với TPU cho Gemini
Trong đó, GPU của Nvidia được xem như “động cơ vô hình” đứng sau mọi bước tiến của các hệ thống AI, từ tạo ảnh, nhận diện giọng nói đến chatbot. Tuy nhiên, sự ra đời của dòng chip TPU dành riêng cho Google Gemini đã thay đổi bức tranh.
Lần đầu tiên, tâm điểm chú ý dịch chuyển từ thuật toán sang phần cứng, từ khả năng mô hình hóa sang năng lực thiết kế chip và chiến lược hạ tầng tính toán. Đây không chỉ là cuộc cạnh tranh kỹ thuật, mà là sự định hình lại quyền lực trong tương lai AI khi các tập đoàn công nghệ bắt đầu nhận ra rằng lựa chọn phần cứng quyết định trực tiếp ai sẽ chi phối cuộc chơi.
TPU, GPU và khác biệt chiến lược trong nền tảng AI mới
GPU từng là câu chuyện thành công ngoạn mục của Nvidia. Dù ban đầu chip đồ họa được tạo ra nhằm xử lý hình ảnh và hoạt ảnh trong game , chúng lại vô tình sở hữu sức mạnh đặc biệt phù hợp với việc tính toán lặp lại trong huấn luyện AI. Sự đa năng, linh hoạt và tốc độ của GPU khiến ngành công nghệ mặc nhiên xem nó là tiêu chuẩn vàng. Trong nhiều năm, mô hình AI nào cũng dựa trên GPU, nhà cung cấp dịch vụ đám mây nào cũng xoay quanh GPU và mọi chiến lược hạ tầng đều tính đến nguồn cung GPU.
Thế nhưng khi các mô hình AI trở nên lớn đến mức khó tưởng tượng, những giới hạn của GPU bắt đầu bộc lộ. Việc mở rộng mô hình không chỉ đòi hỏi nhiều chip hơn mà còn yêu cầu sự phối hợp đồng bộ giữa hàng nghìn thiết bị. Đồng thời, chi phí năng lượng, tốc độ kết nối và mức độ tối ưu hóa bài toán huấn luyện trở thành yếu tố sống còn. GPU được thiết kế để xử lý mọi loại tác vụ, nhưng chính tính linh hoạt ấy lại khiến chúng không hoàn toàn tối ưu cho những loại phép toán đặc biệt trong huấn luyện mô hình ngôn ngữ lớn.
Ở đây, TPU của Google xuất hiện như một lựa chọn khác. Nếu GPU giống một con dao đa năng, TPU là công cụ chuyên dụng. TPU được tạo ra để xử lý những phép toán đặc thù của AI, đặc biệt là nhân ma trận và các phép tính lặp đi lặp lại trong huấn luyện mô hình. Khi phần cứng được sinh ra để phục vụ một mục tiêu duy nhất, khả năng tối ưu hóa trở thành điểm mạnh.
Những đánh giá độc lập cho thấy TPU v5p có thể vượt GPU cao cấp trong các tác vụ được “đo ni đóng giày” cho hệ sinh thái của Google. Điều này chứng minh rằng hiệu suất không chỉ phụ thuộc vào tốc độ chip, mà còn vào mức độ tương thích giữa thiết kế phần cứng, kiến trúc mô hình và phần mềm tối ưu hóa.
TPU cũng thay đổi cách các nhóm nghiên cứu hoạt động. Tốc độ thử nghiệm nhanh hơn nghĩa là các ý tưởng được xác thực trong thời gian ngắn, mô hình được tinh chỉnh liên tục. Trong môi trường cạnh tranh của AI, nơi thời gian thử nghiệm quyết định ai có thể tung ra sản phẩm trước, đây là lợi thế rất lớn. TPU giảm độ trễ giữa ý tưởng và kết quả, tạo ra chu kỳ sáng tạo nhanh hơn. Khi phần cứng và phần mềm hòa hợp, quá trình nghiên cứu trở nên tự nhiên thay vì bị cưỡng ép bởi giới hạn công nghệ.
Không chỉ hiệu suất, vấn đề chi phí cũng trở nên đáng kể. Huấn luyện một mô hình AI hàng đầu có thể tiêu tốn hàng trăm triệu USD, thậm chí hơn. Nếu phụ thuộc hoàn toàn vào GPU, các công ty sẽ phải đối mặt với chi phí vận hành khổng lồ và sự cạnh tranh gay gắt trong thị trường chip vốn đang khan hiếm.
Google, bằng cách phát triển phần cứng riêng, đã dành quyền kiểm soát trực tiếp giá thành, khả năng phân phối và chiến lược dài hạn. Việc Meta cân nhắc ký hợp đồng hàng tỷ USD để sử dụng TPU của Google cho thấy rõ rằng ngay cả những ông lớn từng phụ thuộc vào Nvidia cũng đang tìm lối đi mới.
Sự quan tâm từ Meta, một trong những khách hàng GPU lớn nhất thế giới , gửi đi thông điệp rõ ràng: dựa vào một nhà cung cấp duy nhất tiềm ẩn nhiều rủi ro chiến lược. Một khi nhà cung cấp gặp vấn đề về sản xuất, định giá hay chuỗi cung ứng, toàn bộ kế hoạch AI của doanh nghiệp có thể bị ảnh hưởng. Với TPU, Google đưa ra một con đường khác: giảm phụ thuộc vào GPU, chủ động về năng lực tính toán và tạo ra “nền công nghiệp AI có chủ quyền” theo đúng nghĩa.
Cuộc chơi thay đổi: vị thế Nvidia, vai trò Google và tương lai phân mảnh chip AI
Sự chuyển động về phần cứng AI không chỉ có ý nghĩa kỹ thuật mà còn có tác động tài chính tức thời. Tin Google đẩy mạnh TPU đã khiến giá cổ phiếu Nvidia giảm. Thị trường hiểu rằng nếu các nhà cung cấp đám mây lớn lựa chọn chiến lược đa nguồn, Nvidia sẽ mất đi độc quyền trên mảng chip AI.
Video đang HOT
Điều này không có nghĩa GPU sẽ biến mất, bởi GPU vẫn là hệ sinh thái mạnh mẽ với nền tảng CUDA, hàng triệu kỹ sư đã quen với workflow của Nvidia cùng vô số thư viện và công cụ tối ưu được xây dựng suốt nhiều năm. Việc chuyển đổi toàn bộ hệ thống từ GPU sang TPU không hề đơn giản, nhất là với những tổ chức đã đầu tư quá sâu vào hạ tầng GPU.
Tuy nhiên, câu chuyện không còn chỉ đơn giản là chọn GPU hay TPU. Nó là sự chuyển dịch tư duy: từ “một dòng chip đáp ứng mọi nhu cầu” sang “mỗi nhu cầu cần một dòng chip chuyên dụng”. Khi quy mô mô hình tăng lên, khi chi phí điện toán chiếm tỷ trọng lớn hơn, khi tốc độ thử nghiệm phụ thuộc vào phần cứng, thì việc đầu tư chip chuyên dụng không còn là lựa chọn mà là chiến lược.
Điều đó mang lại một hệ quả quan trọng: thị trường phần cứng AI sẽ phân mảnh hơn. Nvidia vẫn giữ vai trò thống lĩnh, nhưng Google với TPU đã chứng minh rằng mô hình khác hoàn toàn có thể cạnh tranh.
Điều này mở đường cho nhiều nhà phát triển chip mới, từ các hãng công nghệ Trung Quốc xây dựng AI mô-đun cho đến các startup chip chuyên dụng đang xuất hiện tại Anh và Mỹ. Nếu trước đây việc phát triển chip AI như một lãnh địa độc quyền của một số ít doanh nghiệp, tương lai sẽ chứng kiến sự đa dạng hóa mạnh mẽ.
Một hướng đi tiềm năng là việc cung cấp TPU như dịch vụ thông qua nền tảng đám mây. Khi TPU trở nên dễ tiếp cận hơn, các nhóm nghiên cứu nhỏ hay startup AI có thể sử dụng phần cứng chuyên dụng mà trước đây chỉ Google mới sở hữu. Điều này tạo ra làn sóng đổi mới phân tán, khi khả năng huấn luyện mô hình nhanh hơn không chỉ nằm trong tay tập đoàn khổng lồ.
Sự thay đổi này vốn dĩ có tính cạnh tranh rất cao nhưng lại có lợi cho toàn hệ sinh thái. Khi không còn duy nhất một chiến lược phần cứng, các nhà cung cấp bắt buộc phải cải tiến liên tục, tối ưu giá thành và cải thiện trải nghiệm phát triển. Nvidia sẽ buộc phải chạy nhanh hơn. Google sẽ buộc phải mở rộng và chuẩn hóa nền tảng TPU. Những công ty khác sẽ có cơ hội chen chân bằng cách tập trung vào những phân khúc hẹp hơn. Người hưởng lợi cuối cùng sẽ là ngành AI nói chung.
Quan trọng hơn, sự dịch chuyển sang chip chuyên dụng nhấn mạnh một điều: tương lai của AI không còn nằm ở việc ai có mô hình lớn hơn, mà ở việc ai xây dựng nền tảng hạ tầng phù hợp và bền vững hơn. Khi việc tối ưu hóa không chỉ diễn ra trong kiến trúc mô hình mà còn trong kiến trúc chip, tốc độ tiến hóa của AI sẽ thay đổi. Những đột phá mới có thể không đến từ thuật toán, mà đến từ sự phối hợp giữa nhóm kỹ sư phần cứng và nhà nghiên cứu mô hình.
Việc Google đặt cược vào TPU cũng thể hiện bước ngoặt chiến lược của ngành công nghệ. Thế giới AI đang bước vào giai đoạn mà khả năng dẫn dắt không còn dựa vào độc quyền dữ liệu hay thuật toán, mà nằm ở việc làm chủ chuỗi giá trị từ phần cứng đến phần mềm. Nvidia vẫn mạnh, nhưng giờ đây họ không còn một mình trên đường đua. Cuộc cạnh tranh đã bắt đầu, âm thầm nhưng quyết liệt, và những quyết định về chip hôm nay sẽ quyết định cấu trúc quyền lực AI trong thập kỷ tới.
OpenAI thuê chip AI Google để vận hành ChatGPT cùng nhiều sản phẩm, giảm lệ thuộc Nvidia và Microsoft
OpenAI gần đây đã bắt đầu thuê chip trí tuệ nhân tạo (AI) của Google để vận hành ChatGPT và các sản phẩm khác của mình, một nguồn tin thân cận cho Reuters biết.
OpenAI, công ty khởi nghiệp nổi tiếng tạo ra ChatGPT, là một trong những khách hàng lớn nhất với Nvidia, sử dụng các chip AI của hãng này để huấn luyện mô hình và phục vụ cho quá trình suy luận. Đây là giai đoạn mà mô hình AI sử dụng kiến thức đã được huấn luyện để đưa ra dự đoán hoặc quyết định dựa trên thông tin mới.
OpenAI đã lên kế hoạch bổ sung dịch vụ Google Cloud nhằm đáp ứng nhu cầu ngày càng tăng về năng lực điện toán, đánh dấu một sự hợp tác đáng ngạc nhiên giữa hai đối thủ nổi bật trong lĩnh vực AI, theo một bản tin trước đó trong tháng này của Reuters .
Thỏa thuận trên diễn ra trong bối cảnh Google đang mở rộng khả năng cung cấp ra bên ngoài các bộ xử lý tensor (TPU) do hãng tự phát triển, vốn trước đây chỉ dùng cho nội bộ. Động thái đó giúp Google giành được các khách hàng lớn như Apple, cũng như công ty khởi nghiệp Anthropic và Safe Superintelligence - hai đối thủ cạnh tranh với OpenAI được sáng lập bởi các cựu lãnh đạo công ty này.
Việc OpenAI thuê các TPU của Google đánh dấu lần đầu tiên công ty này sử dụng một cách đáng kể các chip không phải từ Nvidia, cho thấy sự chuyển hướng của công ty do Sam Altman điều hành khỏi việc phụ thuộc vào các trung tâm dữ liệu Microsoft. Điều này có thể khả năng thúc đẩy TPU trở thành lựa chọn rẻ hơn so với GPU (bộ xử lý đồ họa) của Nvidia, theo trang T he Information.
OpenAI thuê chip AI từ Google: Cạnh tranh nhưng vẫn cần nhau! - Ảnh: Internet
Microsoft hiện là nhà đầu tư lớn nhất vào OpenAI (gần 14 tỉ USD), nhưng gần đây hai bên có cuộc đối đầu ngầm trong mảng khách hàng doanh nghiệp và lập trình AI.
OpenAI và Microsoft cũng đang bất đồng về một điều khoản hợp đồng liên quan đến trí tuệ nhân tạo tổng quát (AGI), theo báo cáo của trang The Information.
Theo các điều khoản hiện tại, khi OpenAI đạt được AGI, quyền truy cập của Microsoft vào công nghệ này sẽ bị vô hiệu hóa. Microsoft muốn OpenAI loại bỏ điều khoản đó, nhưng đến nay OpenAI vẫn từ chối, theo báo cáo cho biết.
AGI là dạng AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt, giống hay vượt trội con người. Không giống AI hẹp, vốn chỉ giỏi trong một lĩnh vực cụ thể (như nhận dạng giọng nói hoặc hình ảnh), AGI có khả năng áp dụng kiến thức và kỹ năng trong nhiều lĩnh vực khác nhau, từ đó giải quyết các vấn đề phức tạp một cách tự chủ và sáng tạo. OpenAI định nghĩa AGI là "một hệ thống có tính tự chủ cao, vượt trội hơn con người ở hầu hết công việc có giá trị kinh tế".
Không cho đối thủ thuê các TPU mạnh nhất
OpenAI hy vọng rằng các TPU, được thuê thông qua Google Cloud, sẽ giúp giảm chi phí suy luận. Tuy nhiên, Google (đối thủ chính của OpenAI trong cuộc đua AI) không cho đối thủ thuê các TPU mạnh nhất của mình, The Information dẫn lời một nhân viên Google Cloud.
Google từ chối bình luận, còn OpenAI chưa phản hồi ngay với Reuters khi được liên hệ.
Việc Google bổ sung OpenAI vào danh sách khách hàng cho thấy gã khổng lồ công nghệ Mỹ này đang tận dụng công nghệ AI nội bộ, từ phần cứng đến phần mềm, để thúc đẩy tăng trưởng mảng điện toán đám mây.
Google giới thiệu chip AI đột phá về suy luận, mạnh nhất và tiết kiệm năng lượng nhất của mình
Trong hội nghị Cloud Next diễn ra đầu tháng 4, Google đã ra mắt chip tăng tốc AI TPU mới nhất của mình.
Chip AI mới này có tên Ironwood, là TPU thế hệ thứ 7 của Google. Ironwood là chip đầu tiên được tối ưu hóa cho suy luận, tức là quá trình vận hành mô hình AI đã được huấn luyện sẵn để đưa ra kết quả hoặc dự đoán từ dữ liệu đầu vào.
Cloud Next là hội nghị thường niên lớn nhất của Google Cloud - nền tảng điện toán đám mây do Google phát triển và vận hành. Hội nghị này là nơi Google công bố những công nghệ, sản phẩm và cải tiến mới nhất trong lĩnh vực điện toán đám mây, AI, dữ liệu lớn (big data), bảo mật và phát triển phần mềm.
TPU là loại chip chuyên dụng được Google phát triển nhằm tăng tốc quá trình điện toán AI, đặc biệt là các tác vụ liên quan đến học máy sử dụng TensorFlow.
TensorFlow là thư viện mã nguồn mở do Google phát triển, dùng để xây dựng và huấn luyện mô hình học máy và học sâu. Nó giúp nhà phát triển AI tạo ra các mô hình có thể học từ dữ liệu, rồi dự đoán, phân loại, dịch ngôn ngữ, nhận diện hình ảnh...
1. Học máy là lĩnh vực trong AI tập trung vào việc phát triển các thuật toán và mô hình máy tính có khả năng học hỏi từ dữ liệu và cải thiện hiệu suất của chúng theo thời gian mà không cần lập trình cụ thể. Các hệ thống học máy có khả năng tự động tìm hiểu và áp dụng kiến thức từ dữ liệu để thực hiện các nhiệm vụ cụ thể như phân loại, dự đoán, nhận dạng mẫu và tối ưu hóa quyết định. Những ứng dụng của học máy rất đa dạng như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xe tự hành, dự đoán thời tiết, quản lý dữ liệu lớn...
Học máy đã có sự tiến bộ đáng kể trong thập kỷ gần đây, nhờ sự phát triển của các mô hình học sâu và khả năng xử lý dữ liệu lớn, mang lại nhiều cơ hội và tiềm năng giải quyết các vấn đề phức tạp và cải thiện hiệu suất trong nhiều lĩnh vực khác nhau.
2. Học sâu là lĩnh vực trong AI tập trung vào việc xây dựng và huấn luyện các mô hình học máy sâu, còn được gọi là mạng nơ-ron sâu. Mục tiêu của học sâu là tự động học các đặc trưng và biểu diễn cấp cao từ dữ liệu, giúp máy tính tự động thực hiện các nhiệm vụ phức tạp mà trước đây đòi hỏi sự can thiệp của con người.
Mô hình học sâu thường được xây dựng bằng cách sử dụng nhiều lớp của các nơ-ron. Nơ-ron là các đơn vị tính toán cơ bản mô phỏng theo cách hoạt động của não người. Những mô hình này có khả năng học các biểu diễn phức tạp của dữ liệu thông qua quá trình huấn luyện trên tập dữ liệu lớn.
Học sâu đã đạt được sự chú ý lớn nhờ vào khả năng giải quyết hiệu quả nhiều vấn đề khác nhau, bao gồm nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên, nhận dạng giọng nói, dịch ngôn ngữ, phân tích dự đoán, robot và nhiều ứng dụng khác trong thực tế. Các mô hình nổi tiếng trong học sâu bao gồm Mạng nơ-ron tích chập (CNN) và Mạng nơ-ron hồi quy (RNN).
Dự kiến ra mắt vào cuối năm 2025 dành cho khách hàng Google Cloud, Ironwood sẽ có hai cấu hình: Một cụm gồm 256 chip và cụm lớn hơn với 9.216 chip.
"Ironwood là TPU mạnh mẽ nhất, linh hoạt nhất và tiết kiệm năng lượng nhất của chúng tôi tính đến nay. Nó được thiết kế chuyên biệt để hỗ trợ các mô hình AI suy luận ở quy mô lớn", ông Amin Vahdat (Phó chủ tịch Google Cloud) viết trong một bài đăng blog.
Theo các bài kiểm thử nội bộ của Google, Ironwood có thể đạt sức mạnh tính toán ở mức cao nhất là 4.614 TFLOPs (4.614 nghìn tỉ phép toán dấu phẩy động mỗi giây). Mỗi chip có 192GB RAM chuyên dụng với băng thông lên tới 7,4 Tbps.
Ironwood cũng được trang bị lõi chuyên biệt nâng cao có tên SparseCore, được thiết kế để xử lý các loại dữ liệu phổ biến trong các tác vụ như "xếp hạng nâng cao" và "gợi ý" (ví dụ một thuật toán đề xuất sản phẩm thời trang bạn có thể thích). Google cho biết kiến trúc của Ironwood được tối ưu để giảm thiểu di chuyển dữ liệu và độ trễ trong chip, từ đó tiết kiệm điện năng.
Google có kế hoạch tích hợp Ironwood vào AI Hypercomputer trong tương lai gần, theo ông Amin Vahdat.
"Ironwood là bước đột phá độc đáo trong kỷ nguyên suy luận, với sức mạnh tính toán cao hơn, dung lượng bộ nhớ lớn hơn, cải tiến về mạng và độ tin cậy", Amin Vahdat nhấn mạnh.
AI Hypercomputer là khái niệm mới và đặc biệt do Google Cloud đưa ra, dùng để mô tả một hệ thống điện toán AI cực kỳ mạnh mẽ, kết hợp phần cứng với phần mềm tối ưu cho việc huấn luyện và chạy các mô hình ngôn ngữ lớn. AI Hypercomputer là "siêu máy tính dành riêng cho AI", nhưng không phải là cỗ máy duy nhất mà là một cụm gồm hàng ngàn chip, bộ nhớ, mạng tốc độ cao cùng các công nghệ AI đi kèm, tất cả được thiết kế để làm cho AI chạy nhanh hơn, tiết kiệm hơn và thông minh hơn.
Ironwood ra mắt khi cuộc cạnh tranh trong lĩnh vực chip tăng tốc AI đang nóng lên. Nvidia đang dẫn đầu, nhưng các hãng công nghệ lớn như Amazon và Microsoft cũng thúc đẩy các giải pháp tự phát triển.
Microsoft triển khai các phiên bản Azure sử dụng chip AI Cobalt 100 của họ. Amazon có các chip AI Trainium, Inferentia và Graviton, được cung cấp qua nền tảng điện toán đám mây Amazon Web Services.
Amazon Web Services chuẩn bị công bố bản cập nhật cho chip Graviton4, với băng thông mạng lên tới 600 gigabit mỗi giây, mức mà công ty gọi là cao nhất trong lĩnh vực điện toán đám mây công cộng. Ali Saidi, kỹ sư lỗi lạc tại Amazon Web Services, ví tốc độ này như một cỗ máy có thể đọc được 100 đĩa CD nhạc mỗi giây.
Graviton4 là CPU (bộ xử lý trung tâm), một trong nhiều sản phẩm chip đến từ Phòng thí nghiệm Annapurna của Amazon tại thành phố Austin, bang Texas, Mỹ. Graviton4 là một bước tiến trong chiến lược phát triển chip tùy chỉnh của Amazon, giúp gã khổng lồ thương mại điện tử cạnh tranh trực tiếp với các đối thủ bán dẫn truyền thống như Intel và AMD. Tuy nhiên, trận chiến thực sự lại diễn ra với Nvidia trong thị trường cơ sở hạ tầng AI.
Google trỗi dậy mạnh mẽ với Gemini 3 trong cuộc đua AI
Sự ra mắt của Gemini 3 vào ngày 18/11 đã tạo nên một cú chấn động trong ngành trí tuệ nhân tạo toàn cầu, khi mô hình AI mới của Google nhanh chóng vươn lên dẫn đầu hàng loạt bảng xếp hạng benchmark chỉ trong thời gian ngắn. Gemini 3 của Google được cho là đang dẫn dầu cuộc đua AI. Với khả...
Đi đón dâu, gia đình Thanh Hóa 'quẩy' cùng thông gia gây sốt MXH00:40
Cô gái Khánh Hòa lấy chồng Mông Cổ, nhà trai đem 6 tráp 'lạ lùng' đến hỏi cưới00:16
Clip: Khoảnh khắc người phụ nữ trượt chân rơi xuống đất khi thoát khỏi đám cháy trên phố Hàng Mã khiến ai cũng thót tim00:17
Thành viên nhóm "hiệp sĩ" vạch trần bộ mặt thật của Nguyễn Thanh Hải01:09
Ông Trump đón năm mới bằng buổi đấu giá từ thiện triệu USD03:51
Đám cưới hoàng gia được cả MXH mong chờ: Dâu rể đẹp điên đảo chúng sinh, khí chất giàu sang miễn bàn00:40
Đám cưới ấm áp của cặp đôi Hà Nội sau hành trình nhiều thử thách00:50Tiêu điểm
Tin đang nóng
Tin mới nhất

Snapdragon 8 Elite Gen 5 'so găng' Exynos 2600 trong năm 2026

iPhone 17 Pro phát tiếng nhiễu bí ẩn khi sạc khiến người dùng hoang mang

Cổng USB thực tế có thể cung cấp bao nhiêu điện năng?

Tính năng trên ChatGPT cần thay đổi để bảo vệ quyền riêng tư

TCL ra mắt Note A1 NxtPaper: Đối thủ 11.5 inch của Kindle Scribe thách thức công nghệ E Ink

Cách reset máy tính Windows 11/10: Giải pháp khắc phục giật lag và làm mới hệ thống hiệu quả

Mẹo lấy lại cả chục GB dung lượng Windows 11 chỉ với một dòng lệnh đơn giản

Đánh giá Corsair MP700 Micro: Ổ cứng SSD PCIe Gen 5 4TB siêu nhỏ gọn nhanh nhất hiện nay

Xiaomi ra mắt máy lọc không khí Mijia Air Purifier 6 Pro: Hệ thống lọc 13 lớp, giá 8.97 triệu đồng

Trải nghiệm Synology DiskStation DS925+: Nền tảng lưu trữ cho doanh nghiệp hiện đại

10 tính năng mặc định trên Chrome nên vô hiệu hóa ngay lập tức

Lý do Gemini ngày càng thu hút người dùng
Có thể bạn quan tâm

Những smartphone giá rẻ tốt nhất năm 2025
Đồ 2-tek
10:32:49 03/01/2026
VĐV tennis xinh đẹp cưới con trai Thủ tướng Hy Lạp
Sao thể thao
10:23:36 03/01/2026
Đúng hôm nay, thứ 7 ngày 3/1/2026, 3 con giáp vừa giàu vừa may, đổi vận rực rỡ, tiền bạc như nước, Phúc Lộc ngập nhà, tiền vàng đủ đầy
Trắc nghiệm
10:21:56 03/01/2026
Nhà phố 6 tầng có workshop 'chơi xe' của vợ chồng Việt - Nga
Sáng tạo
10:12:35 03/01/2026
Khe Cốc - vùng chè đặc biệt giữa núi đồi Vô Tranh
Du lịch
10:05:28 03/01/2026
Chồng mất được một tháng, vợ bàng hoàng nhận chìa khóa căn hộ 4 tỷ, sự thật đằng sau khiến tôi khóc nghẹn
Góc tâm tình
09:45:43 03/01/2026
Mai Dora tổng kết 2025 nhưng bộ ảnh khiến fan "không thể rời mắt"
Netizen
09:24:38 03/01/2026
Toyota Raize 2026: Chi tiết giá lăn bánh và thông số kỹ thuật mới nhất
Ôtô
09:11:44 03/01/2026
Mã độc Android có thể tự ‘quét sạch’ tài khoản ngân hàng
Micron ngừng sản xuất RAM phục vụ người dùng
Google thay đổi chiến lược AI: Từ theo sau đến dẫn dắt, nhưng vẫn không độc bá
Google ra mắt Gemini 3, tích hợp mô hình AI vào tìm kiếm
Google miễn phí gói AI Pro hơn 10 triệu đồng cho nửa tỷ người dùng
Đừng để AI 'ảo giác' thay con người
Gemini AI gây lo lắng vì lưu trữ trò chuyện của người dùng
Google trang bị trí nhớ tự động cho chatbot Gemini
AI Gemini ra mắt tính năng mới hỗ trợ việc học
AI của Google rơi vào vòng lặp nguy hiểm
Google: Các mô hình AI mất tự tin và bẻ cong sự thật dưới áp lực
ChatGPT thay thế Google chỉ là 'ảo tưởng'
Nhờ có Apple, Microsoft và Google, thương vụ NVIDIA mua ARM sẽ là cú đấm cực mạnh nhắm vào... Intel
ChatGPT 'báo động đỏ' vì loạt đối thủ mới nổi
AWS tung Trainium3 thách thức Nvidia trong cuộc đua chip AI
Cơn sốt AI đang gây ra cuộc khủng hoảng nguồn cung chip nhớ toàn cầu.
Apple bất ngờ thay lãnh đạo mảng AI
Google bứt phá trong cuộc đua AI, Gemini 3 trở thành "ngôi sao mới"
Giải mã cuộc đại chiến 'Tam quốc' AI và ngôi vương lung lay của OpenAI
iOS 27: Bản cập nhật 'khổng lồ', iPhone nào bị loại?
OpenAI chuẩn bị triển khai quảng cáo trên ChatGPT
Hướng dẫn sử dụng NotebookLM hiệu quả: Từ quản lý tài liệu đến tạo mindmap, slide
5 cách khắc phục lỗi không đăng nhập được ChatGPT nhanh chóng
Google kết thúc "tuần trăng mật" Gemini 3 Pro cho người dùng miễn phí
Những thói quen làm lãng phí đường truyền internet tốc độ gigabit
Rò rỉ tin OpenAI đang phát triển bút AI tích hợp ChatGPT
Danh sách 12 thiết bị Xiaomi vừa nhận bản cập nhật HyperOS 3
CEO DeepSeek tung bí kíp huấn luyện mô hình AI lớn hơn với chi phí thấp hơn
Khi Microsoft và OpenAI 'đồng sàng dị mộng'
Acemagic Retro X5: Mini PC ngoại hình NES huyền thoại tích hợp chip AMD Ryzen AI 9 HX
Samsung tham vọng tự chủ hoàn toàn với nhân CPU và GPU tùy biến trên Exynos 2800
Xe khách bốc cháy dữ dội trên cao tốc, nam sinh lớp 12 tử vong
Chuyện gì đang xảy ra với diễn viên Kim Hiền ở Mỹ?
Con trai của Tình Nhi 'Hoàn Châu cách cách' gây sốt với vẻ ngoài cực phẩm
Nguyễn Thanh Hải từng hứa trả 100.000 USD cho ai chứng minh ông nhận tiền
3 năm nuôi đứa trẻ bị bỏ rơi, tôi chết lặng khi ADN cho kết quả không thể ngờ tới
Khởi tố hai thanh niên giao cấu, hiếp dâm hai chị em nhỏ tuổi
Đi họp lớp đầu năm mới gặp lại cô gái mình từng ruồng bỏ năm xưa, tôi phát hiện bí mật sốc về vợ mình
5 năm mới công khai "danh phận", Hoa khôi Hà thành tung ảnh hẹn hò tuyển thủ Việt Nam đêm Giao thừa gây chú ý
Nữ TikToker lái container, chặn đầu xe khác vì nghi bị trêu ghẹo: Công an vào cuộc, hé lộ mức hình phạt
Danh ca Sơn Tuyền U70: Sống viên mãn bên chồng ở Mỹ dù không đám cưới, sinh con
Cách em 1 milimet - Tập 36: Bách bắt gặp quả tang Duyên lén lút gặp Hiếu
Nửa đầu tháng 1 dương lịch năm 2026, 3 con giáp mang đầy Phúc Khí, vận may mỉm cười, tiền bạc tự động chạy vào đầy túi, sống trong hạnh phúc
Mỹ nhân vung 760 tỷ cưỡi trăn 30m, 20 sinh vật chạy khắp SVĐ khiến 120.000 người "bị hạ gục"
Đêm Giao thừa, David Beckham nghẹn ngào nhắn nhủ con trai cả đang xa cách: "Bố yêu con. Con là cả cuộc đời của bố!"
Về quê nghỉ Tết Dương lịch, nam thanh niên gặp tai nạn tử vong trước cửa nhà
Touliver nhắc thẳng Tóc Tiên: "Em ấy vẫn xinh đẹp"