Phát biểu tại hội nghị thượng đỉnh về AI ở San Francisco hồi đầu tuần, CEO của Intel, Lip-Bu Tan, cảnh báo rằng tình trạng thiếu hụt bộ nhớ tiên tiến trên toàn cầu có thể kéo dài ít nhất hai năm nữa. Ông cho biết, khi các hệ thống AI mở rộng nhanh chóng, nhu cầu về bộ nhớ đang tăng nhanh hơn so với khả năng mở rộng sản lượng của các nhà cung cấp. Nền tảng AI thế hệ tiếp theo của Nvidia, Vera Rubin, dự kiến sẽ làm trầm trọng thêm sự mất cân bằng này bằng cách tăng mạnh mức tiêu thụ bộ nhớ trên mỗi hệ thống.
Động lực đó củng cố sự thống trị về cấu trúc của Samsung Electronics và SK hynix, hai công ty cùng nhau kiểm soát phần lớn thị trường bộ nhớ băng thông cao toàn cầu — hiện là thành phần quan trọng nhất trong điện toán AI.
Trong khi cạnh tranh giữa các nhà sản xuất bộ xử lý đồ họa và các nhà thiết kế chip tùy chỉnh đang ngày càng gay gắt, thì lớp bộ nhớ lại đang đi theo hướng ngược lại: hướng tới sự tập trung.
Ngay cả trước khi Intel đẩy mạnh hoạt động trở lại, các công ty công nghệ toàn cầu đã và đang nỗ lực giảm sự phụ thuộc vào Nvidia bằng cách phát triển các chip AI tùy chỉnh để tối ưu hóa chi phí và khối lượng công việc.
Ví dụ bao gồm Ironwood TPU của Google, Maia 200 của Microsoft và MTIA-v3 của Meta, dự kiến ra mắt trong nửa đầu năm nay. Về kiến trúc, các bộ xử lý này khác nhau đáng kể. Về hoạt động, chúng không khác nhau.
Tất cả đều yêu cầu dung lượng bộ nhớ tốc độ cao khổng lồ để hoạt động.
Khi các mô hình AI ngày càng lớn và phức tạp, nút thắt cổ chai về hiệu năng đang chuyển từ sức mạnh tính toán thô sang thông lượng bộ nhớ — tốc độ truy cập và di chuyển dữ liệu giữa các chip. Việc huấn luyện và suy luận hiện phụ thuộc vào việc cung cấp các tập dữ liệu khổng lồ với độ trễ tối thiểu, nâng tầm bộ nhớ từ vai trò hỗ trợ lên thành một yếu tố hạn chế ở cấp hệ thống.
Sự chuyển đổi này đã khiến HBM từ một thành phần tăng tốc chuyên dụng trở thành một yêu cầu cơ bản. HBM đã được tích hợp trong các chip AI của Google và Microsoft, và Meta có kế hoạch thay thế LPDDR5 bằng HBM3E thế hệ thứ năm trong MTIA-v3 của mình. Cho dù bộ xử lý là GPU hay mạch tích hợp chuyên dụng tùy chỉnh, HBM đã trở nên không thể tránh khỏi.
“Bạn có thể đa dạng hóa bộ xử lý, nhưng bạn không thể loại bỏ HBM,” một nguồn tin trong ngành cho biết. “Đó là lý do Samsung và SK hynix đang nắm giữ vị trí dẫn đầu không thể lay chuyển.”
Tại sao Samsung, SK hynix dẫn đầu
HBM là một trong những sản phẩm bán dẫn đòi hỏi kỹ thuật cao nhất để sản xuất. Nó yêu cầu các quy trình chế tạo wafer tiên tiến, xếp chồng phức tạp, đóng gói tinh vi và năng suất cao ổn định — tất cả đều ở quy mô lớn. Những rào cản này đã loại bỏ hầu hết các đối thủ cạnh tranh.
SK hynix, nhà cung cấp HBM chính của Nvidia, đã đảm bảo các hợp đồng cung cấp dài hạn, thường được ký kết trước khi sản phẩm ra mắt. Công ty cho biết năm ngoái rằng sản lượng HBM, DRAM và NAND của họ đã bán hết đến năm 2026.
Trong khi đó, Samsung Electronics đang tích cực mở rộng sản xuất HBM3E tại các nhà máy Pyeongtaek và Hwaseong ở tỉnh Gyeonggi, đồng thời đẩy nhanh phát triển bộ nhớ thế hệ tiếp theo. Không giống như các đối thủ, Samsung có thể tích hợp bộ nhớ, xưởng đúc và đóng gói tiên tiến trong nội bộ — một khả năng ngày càng được các khách hàng AI đánh giá cao, những người đang tìm kiếm các hệ thống được tối ưu hóa chặt chẽ.
Với việc các máy chủ AI tiêu thụ nhiều HBM hơn trên mỗi đơn vị và đầu tư vào cơ sở hạ tầng vẫn đang tăng tốc, nguồn cung khó có thể bắt kịp trong thời gian ngắn. Điều đó giúp Samsung và SK hynix duy trì được sức mạnh định giá và lợi thế chiến lược trong hệ sinh thái AI.
"Cuộc đua GPU đang trở nên cạnh tranh hơn," một nguồn tin khác trong ngành cho biết. "Nhưng cuộc đua bộ nhớ đã được định đoạt - và nó đang bị chi phối bởi Hàn Quốc."