GPT-5.3-Codex-Spark là phiên bản rút gọn của dòng Codex danh tiếng, được tối ưu hóa đặc biệt cho các tác vụ lập trình cần phản hồi tức thì. Tuy nhiên, điều khiến giới công nghệ xôn xao không phải là khả năng của nó, mà là "trái tim" vận hành bên trong: Wafer Scale Engine thế hệ thứ 3 của Cerebras Systems.
Khác biệt hoàn toàn với kiến trúc ghép nối hàng ngàn GPU nhỏ lẻ truyền thống, siêu chip của Cerebras là một tấm silicon nguyên khối khổng lồ chứa hàng trăm nghìn nhân xử lý AI. Thiết kế đột phá này giúp loại bỏ gần như hoàn toàn độ trễ trong truyền tải dữ liệu giữa các nhân, cho phép GPT-5.3-Codex-Spark đạt tốc độ xử lý kinh hoàng lên tới hơn 1.000 token mỗi giây.
Hiện tại, đặc quyền trải nghiệm sức mạnh này đang được dành riêng cho người dùng gói ChatGPT Pro.
%20(10).jpg)
Siêu máy tính Andromeda của Cerebras đặt tại trung tâm dữ liệu ở Santa Clara (Mỹ) năm 2022. Ảnh: Reuters
Mặc dù đây là bước đi lịch sử, OpenAI vẫn khéo léo khẳng định mối quan hệ bền chặt với Nvidia. Đầu tháng 2, CEO Sam Altman đã dập tắt mọi tin đồn rạn nứt bằng tuyên bố trên mạng xã hội X: "Chúng tôi yêu thích việc hợp tác với Nvidia, họ vẫn là nhà sản xuất chip tốt nhất thế giới".
Thực tế, các mô hình AI mạnh mẽ và phức tạp nhất của OpenAI vẫn đang được "nuôi dưỡng" và vận hành chủ yếu trên hạ tầng GPU của Nvidia. Việc hợp tác với Cerebras được xem là chiến lược đa dạng hóa chuỗi cung ứng phần cứng nhằm giảm bớt sự phụ thuộc độc quyền.
Bên cạnh cái bắt tay trị giá 750 MW hạ tầng tính toán với Cerebras kéo dài đến năm 2028, OpenAI đang âm thầm xây dựng một đế chế phần cứng tự chủ hơn:
Ký thỏa thuận mua lượng chip tương đương 6 GW từ AMD trong nhiều năm tới.
Hợp tác với Broadcom để tự thiết kế các bộ tăng tốc AI và linh kiện mạng chuyên biệt.
Với hơn 1 triệu người dùng hàng tuần cho dòng mô hình Codex, OpenAI dự kiến sẽ sớm mở rộng quyền truy cập GPT-5.3-Codex-Spark cho đại chúng sau khi hoàn tất giai đoạn thử nghiệm hiệu năng.