Sáng sớm nay, thông cáo báo chí chung giữa Nvidia và Groq đã đặt dấu chấm hết cho những đồn đoán kéo dài suốt quý vừa qua. Jensen Huang, CEO của Nvidia, xác nhận tập đoàn đã đạt thỏa thuận mua lại toàn bộ Groq - công ty khởi nghiệp chip AI có trụ sở tại Mountain View - với giá trị thương vụ lên tới 20 tỷ USD.
Đây được xem là thương vụ M&A (mua bán và sáp nhập) lớn nhất trong lịch sử ngành chip AI tính đến năm 2025, vượt xa các thương vụ đình đám trước đó. Quyết định này gây bất ngờ bởi Groq từ lâu được định vị là "kẻ thách thức Nvidia" với tư duy thiết kế chip hoàn toàn đi ngược lại triết lý GPU truyền thống. Việc "Vua Chip" chấp nhận chi một khoản tiền khổng lồ để mua lại đối thủ cho thấy Nvidia đang cảm nhận rõ sức nóng từ nhu cầu xử lý AI thời gian thực (Real-time AI).

CEO NVIDIA, Ông Jesen Huang. Ảnh: VietNamNet
Để hiểu tại sao Groq có giá 20 tỷ USD, cần nhìn vào đội ngũ sáng lập. Groq được thành lập năm 2016 bởi Jonathan Ross và Douglas Wightman. Jonathan Ross không phải cái tên xa lạ; ông chính là người đã khởi xướng và dẫn dắt dự án chip TPU (Tensor Processing Unit) tại Google - loại chip bí mật giúp Google duy trì lợi thế AI trong suốt một thập kỷ.
Rời Google, Ross nhận thấy các dòng chip hiện hành (CPU, GPU) được thiết kế cho các tác vụ cũ, không tối ưu cho bản chất tuần tự của ngôn ngữ tự nhiên. Ông thành lập Groq với mục tiêu tạo ra một loại chip hoàn toàn mới, loại bỏ mọi rào cản về độ trễ (latency).

Ông Jonathan Ross. Ảnh: BBC One
Giá trị cốt lõi của thương vụ nằm ở công nghệ độc quyền của Groq: LPU (Language Processing Unit - Đơn vị Xử lý Ngôn ngữ).
Khác với GPU của Nvidia - vốn sử dụng kiến trúc xử lý song song (parallel processing) và phụ thuộc nhiều vào bộ nhớ băng thông cao (HBM) đắt đỏ, LPU của Groq đi theo hướng "Đơn luồng" (Single-core architecture) và "Tính xác định" (Deterministic).
Loại bỏ độ trễ: GPU truyền thống phải mất thời gian để điều phối dữ liệu qua lại giữa bộ nhớ và nhân xử lý (thông qua Scheduler), gây ra độ trễ. LPU loại bỏ hoàn toàn bộ điều phối này. Mọi luồng di chuyển của dữ liệu được biên dịch sẵn từ trước.
Tốc độ thần tốc: Nhờ kiến trúc này, chip Groq có thể tạo ra hàng trăm token (từ ngữ) mỗi giây, nhanh gấp 10-20 lần so với các hệ thống dùng GPU H100 của Nvidia trong các tác vụ chạy chatbot (inference).
Không phụ thuộc HBM: Trong khi thế giới khan hiếm bộ nhớ HBM3e, chip Groq sử dụng bộ nhớ SRAM tích hợp sẵn, giúp tốc độ truy xuất cực nhanh và giảm chi phí sản xuất.
Tại sao Nvidia cần Groq khi họ đã có dòng chip Blackwell siêu mạnh? Câu trả lời nằm ở sự phân hóa thị trường AI năm 2025.
Nvidia hiện là "bá chủ" tuyệt đối ở mảng Huấn luyện (Training) - nơi các siêu máy tính cần hàng ngàn GPU chạy song song để dạy cho AI học. Tuy nhiên, ở mảng Suy luận (Inference) - nơi AI trả lời người dùng hàng ngày (như ChatGPT, Gemini), chi phí vận hành trên GPU đang quá đắt đỏ và độ trễ cao.
Thâu tóm Groq giúp Nvidia giải quyết triệt để bài toán này:
Gói giải pháp toàn diện: Khách hàng có thể dùng GPU Nvidia để huấn luyện mô hình, sau đó chuyển sang dùng LPU (giờ đây thuộc Nvidia) để vận hành ứng dụng với chi phí rẻ hơn và tốc độ nhanh hơn.
Triệt tiêu cạnh tranh: Groq đang trở thành lựa chọn ưa thích của các nhà phát triển mô hình ngôn ngữ lớn (LLM) nguồn mở như Meta Llama hay Mistral. Mua lại Groq giúp Nvidia ngăn chặn sự trỗi dậy của một hệ sinh thái phần cứng thứ hai.

Chip Groq. Ảnh: Tech Funding News
Ngay sau thông tin này, cổ phiếu Nvidia đã tăng vọt 5%, phản ánh sự ủng hộ của phố Wall. Tuy nhiên, cộng đồng công nghệ lại tỏ ra lo ngại. "Việc Nvidia sở hữu Groq đồng nghĩa với việc họ nắm giữ cả chìa khóa của hiện tại (GPU) và tương lai (LPU). Sự độc quyền này có thể kìm hãm đà giảm giá của các dịch vụ AI", một chuyên gia phân tích từ Gartner nhận định.
Thương vụ dự kiến sẽ phải đối mặt với sự soi xét gắt gao từ Ủy ban Thương mại Liên bang Mỹ (FTC) và các cơ quan chống độc quyền tại Châu Âu trong thời gian tới. Nhưng nếu vượt qua được các ải này, Nvidia sẽ chính thức trở thành "đế chế không thể sụp đổ" của kỷ nguyên trí tuệ nhân tạo.