Dự kiến báo cáo thu nhập của Nvidia vào thứ Tư sẽ cho thấy doanh số bán hàng bùng nổ của hệ thống máy tính để bàn hiện tại của công ty. Nhưng tất cả sự chú ý đang đổ dồn vào hệ thống AI tiếp theo của họ, Vera Rubin, dự kiến sẽ ra mắt vào cuối năm nay.
Vera Rubin, được cấu thành từ 1,3 triệu linh kiện, sẽ mang lại hiệu suất trên mỗi watt cao gấp 10 lần so với người tiền nhiệm Grace Blackwell, theo tuyên bố của công ty. Đó là một bước phát triển đáng kể khi mà mức tiêu thụ năng lượng là một trong những vấn đề quan trọng nhất đối với việc xây dựng trí tuệ nhân tạo.
Phóng viên đã có cái nhìn đầu tiên về Vera Rubin tại trụ sở chính của Nvidia ở Santa Clara, California.
Nvidia cho biết hệ thống AI mới là một mạng lưới phức tạp các linh kiện được thu mua từ khắp nơi trên thế giới. Các chip cốt lõi của Nvidia bao gồm 72 bộ xử lý đồ họa (GPU) Rubin và 36 bộ xử lý trung tâm (CPU) Vera, chủ yếu do Công ty Sản xuất Bán dẫn Đài Loan (TSMC) sản xuất. Các bộ phận khác, từ các thành phần làm mát bằng chất lỏng đến hệ thống nguồn và khay tính toán, đến từ hơn 80 nhà cung cấp ở ít nhất 20 quốc gia, bao gồm Trung Quốc, Việt Nam, Thái Lan, Mexico, Israel và Mỹ.
Một thách thức lớn mà công ty phải đối mặt là chi phí bộ nhớ tăng vọt do tình trạng thiếu hụt toàn cầu từ nhu cầu do trí tuệ nhân tạo (AI) thúc đẩy. Dion Harris, người đứng đầu bộ phận cơ sở hạ tầng AI của Nvidia, cho biết trong một cuộc phỏng vấn rằng công ty đã cung cấp cho các nhà cung cấp “những dự báo rất chi tiết”.
“Chúng tôi đang phối hợp để đảm bảo rằng mọi thứ chúng tôi vận chuyển sẽ được đáp ứng bởi chuỗi cung ứng của chúng tôi”, ông nói. “Chúng tôi đang ở trong tình trạng tốt”.
Đây là thời điểm quan trọng đối với Nvidia, công ty đang thống trị thị trường bộ xử lý AI nhưng phải đối mặt với sự cạnh tranh ngày càng gay gắt từ Advanced Micro Devices cũng như các chip silicon tùy chỉnh từ Broadcom và các bộ xử lý tensor (TCP) do Google tự phát triển. Nvidia có kế hoạch sản xuất cơ sở hạ tầng AI trị giá lên tới 500 tỷ đô la tại Mỹ đến năm 2029, bao gồm cả việc sản xuất GPU Blackwell tại các nhà máy mới của TSMC ở Arizona.
Grace Blackwell được đưa vào sản xuất năm 2024 và đã thay đổi cuộc chơi về khả năng tính toán của một hệ thống duy nhất. Vera Rubin, dự kiến sẽ được xuất xưởng vào nửa cuối năm 2026, sẽ đưa công ty lên một tầm cao mới. Giám đốc điều hành của Nvidia, Jensen Huang, đã thông báo vào tháng Giêng rằng hệ thống này đã được sản xuất hàng loạt.
“Những thiết bị này rất lớn. Chúng có tất cả các thành phần tính toán, mạng lưới, cáp và hệ thống làm mát,” Daniel Newman của công ty nghiên cứu Futurum Group cho biết. “Tất cả các hệ thống này được tích hợp vào một giá đỡ duy nhất, được thiết kế để đạt hiệu quả và hiệu suất cao nhất. Và đó không phải là cách các máy chủ được chế tạo trong quá khứ.”
Tuần trước, Meta đã công bố kế hoạch sử dụng Vera Rubin trong các trung tâm dữ liệu của mình vào năm 2027. Danh sách các khách hàng tiềm năng khác của Nvidia sử dụng Vera Rubin bao gồm OpenAI, Anthropic, Amazon, Google và Microsoft. Các giá đỡ này, được sản xuất tại Mỹ và các nơi khác, bao gồm Đài Loan và tại một nhà máy Foxconn mới ở Mexico, nặng gần 2 tấn và có tổng cộng khoảng 1.300 vi mạch, so với 864 vi mạch của Grace Blackwell.
Vera Rubin là một hệ thống mô-đun đơn giản hơn, được thiết kế để dễ dàng lắp đặt và sửa chữa. Mỗi siêu vi mạch có thể trượt ra khỏi một trong 18 khay tính toán của giá đỡ chỉ trong vài giây. Trong hệ thống Blackwell, các thành phần đó được hàn vào bo mạch.
Nvidia cho biết hệ thống mới sẽ tiêu thụ điện năng gấp đôi so với thế hệ trước, nhưng sẽ hiệu quả hơn nhiều nhờ tỷ lệ hiệu năng trên mỗi watt là gấp 10 lần.
Jordan Klein, một nhà phân tích tại Mizuho Securities, cho biết điều “quan trọng nhất” là “bạn có thể nhận được bao nhiêu token trên mỗi đơn vị điện năng tiêu thụ”.
“Bạn càng có thể tinh chỉnh hoặc cải thiện hiệu năng, thì tỷ lệ lợi nhuận trên mỗi đô la bạn bỏ ra càng cao”, Klein nói.
Vera Rubin cũng là hệ thống đầu tiên của Nvidia được làm mát hoàn toàn bằng chất lỏng, điều mà Harris cho biết giúp các trung tâm dữ liệu tiêu thụ “ít nước hơn nhiều” so với hệ thống làm mát bay hơi truyền thống.
Nvidia không công bố giá thành sản phẩm, nhưng Futurum Group ước tính giá sẽ tăng khoảng 25% so với Grace Blackwell, đưa giá hệ thống lên khoảng 3,5 triệu đến 4 triệu đô la.
Khi các khách hàng lớn tìm cách đa dạng hóa sự phụ thuộc vào nhà sản xuất chip này, nhiều khách hàng cũng đang tự trang bị máy chủ AI bằng chip của riêng họ. Các phóng viên đã đến thăm một trung tâm dữ liệu của Amazon Web Services vào tháng 10, nơi chứa đầy các “máy chủ siêu lớn” được tạo thành từ chip Trainium 2 của công ty. Trong khi đó, các trung tâm dữ liệu của Google được chất đầy các giá đỡ chứa TPU của hãng.
Cuối năm nay, Nvidia sẽ phải đối mặt với sự cạnh tranh lớn khi đối thủ AMD ra mắt hệ thống quy mô rack đầu tiên có tên Helios. Nhà sản xuất chip này vừa nhận được một cam kết lớn từ Meta với công suất lên đến 6 gigawatt.
“Bạn sẽ thấy rất nhiều người sử dụng vì khách hàng muốn có dung lượng lớn hơn, nhưng họ cũng muốn có một nguồn cung cấp thứ hai khả thi để cạnh tranh sòng phẳng với Nvidia,” Klein nói. Về phía đối thủ cạnh tranh, Harris nói: “Tôi rất khâm phục bất cứ ai sẽ cố gắng. Nhưng đây chắc chắn không phải là một việc dễ dàng.”