Phó chủ tịch kỹ thuật của Meta, ông Yee Jiun Song, khẳng định nhu cầu về suy luận trí tuệ nhân tạo đang bùng nổ mạnh mẽ. Để đáp ứng khối lượng công việc khổng lồ từ hàng tỷ người dùng trên Facebook và Instagram, Meta đã quyết định đầu tư mạnh tay vào thiết kế chip nội bộ thay vì chỉ dựa vào các giải pháp thương mại có sẵn.
Việc tự thiết kế chip mang lại cho Meta hai lợi thế cốt lõi: tối ưu hóa hiệu năng cho các loại dữ liệu đặc thù của mạng xã hội và tiết kiệm đáng kể năng lượng vận hành. Điều này giúp giảm thiểu chi phí dài hạn trong bối cảnh các trung tâm dữ liệu đang tiêu tốn nguồn lực kinh khủng.
Chương trình Meta Training and Inference Accelerator (MTIA) không chỉ dừng lại ở thử nghiệm mà đã chính thức đi vào giai đoạn sản xuất hàng loạt với các thế hệ chip nối tiếp nhau chỉ trong vòng 6 tháng:
Đây là dòng chip đầu tiên trong loạt 4 chip mới đã được đưa vào sản xuất hàng loạt. MTIA 300 đóng vai trò "xương sống" cho các thuật toán xếp hạng và đề xuất nội dung. Mỗi khi bạn thấy một bài đăng hay video phù hợp sở thích trên Facebook, rất có thể đó là kết quả xử lý từ dòng chip này.
MTIA 400 là bước nâng cấp quan trọng, vừa duy trì khả năng nghiên cứu vừa hỗ trợ mạnh mẽ cho AI tạo sinh (Generative AI). Với khả năng mở rộng lên tới 72 bộ tăng tốc, chip này được Meta đánh giá là có hiệu năng đủ sức cạnh tranh sòng phẳng với các sản phẩm hàng đầu trên thị trường hiện nay.
MTIA 450 (Dự kiến đầu 2027): Tập trung tối ưu hóa băng thông bộ nhớ (HBM) – yếu tố sống còn của hiệu suất suy luận AI. Meta dự kiến tăng gấp đôi băng thông so với thế hệ 400 để đạt sức mạnh vượt trội.
MTIA 500 (Dự kiến cuối 2027): Tiếp tục đẩy mạnh băng thông thêm 50% và cải tiến tiến trình phân tích dữ liệu độ chính xác thấp, giúp hệ thống hoạt động thông minh và nhanh nhạy hơn.

Chip AI MTIA 400 của Meta. Ảnh: Meta
Dù tự thiết kế, Meta vẫn bắt tay với những đối tác hàng đầu để hiện thực hóa sản phẩm. Công ty hợp tác với Broadcom trong khâu thiết kế, sử dụng kiến trúc mã nguồn mở RISC-V và tin tưởng giao toàn bộ khâu sản xuất cho TSMC.
Lộ trình ra mắt chip mới mỗi 6 tháng được giới chuyên gia đánh giá là "nhanh chóng và bất thường". Meta không chọn cách "đặt cược" vào một mẫu chip duy nhất trong thời gian dài mà chọn phương pháp lặp đi lặp lại: mỗi thế hệ sau sẽ kế thừa và hoàn thiện dựa trên những module và dữ liệu thực tế từ thế hệ trước.
Việc sản xuất chip tùy chỉnh là một canh bạc tốn kém và phức tạp. Năm nay, Meta dự kiến chi tiêu từ 115 đến 135 tỷ USD, phần lớn đổ vào hạ tầng AI. Dù đã có chip riêng, công ty vẫn phải chi hàng chục tỷ USD để mua chip từ Nvidia, AMD và thuê hạ tầng của Google để đảm bảo hệ thống không bị gián đoạn trong giai đoạn chuyển đổi.
Rõ ràng, Meta đang dần lột xác từ một công ty dịch vụ phần mềm thuần túy trở thành một "gã khổng lồ" về hạ tầng điện toán vật lý, khẳng định vị thế trong cuộc đua AI toàn cầu.