Samsung dự định bắt đầu vận chuyển HBM4 cho Nvidia ngay từ tuần thứ ba của tháng Hai, để sử dụng trong nền tảng tăng tốc AI thế hệ tiếp theo của gã khổng lồ chip Mỹ, Vera Rubin.
Động thái này đánh dấu sự phục hồi chiến lược của Samsung, công ty từng bị đặt câu hỏi về khả năng cạnh tranh trong các thế hệ HBM trước đó. Với HBM4, Samsung đang tìm cách thu hẹp khoảng cách với – và có khả năng vượt lên – đối thủ cùng thành phố SK hynix, công ty đã dẫn đầu từ sớm nhờ nhu cầu tăng cao từ các trung tâm dữ liệu AI.
“Samsung đã chứng minh sự phục hồi vị thế dẫn đầu công nghệ của mình bằng cách là công ty đầu tiên sản xuất hàng loạt HBM4 hiệu năng cao nhất,” một quan chức trong ngành cho biết.
“Điều đó mang lại cho công ty lợi thế rõ ràng trong việc định hình thị trường theo cách riêng của mình.”
Nvidia dự kiến sẽ ra mắt bộ tăng tốc Vera Rubin tích hợp HBM4 của Samsung tại hội nghị nhà phát triển thường niên GTC 2026, dự kiến diễn ra vào tháng tới. Samsung cho biết thời điểm giao hàng được quyết định sau khi phối hợp với lộ trình sản phẩm của Nvidia và lịch trình thử nghiệm hệ thống ở các khâu tiếp theo.
Ngoài tốc độ, cách tiếp cận công nghệ của Samsung đằng sau sản phẩm này cũng rất đáng chú ý. Ngay từ đầu, công ty đã đặt mục tiêu vượt qua các tiêu chuẩn do JEDEC đặt ra, áp dụng sự kết hợp đầu tiên trong ngành giữa quy trình DRAM thế hệ thứ sáu (1c) 10 nanomet với chip logic 4 nanomet được sản xuất thông qua nhà máy riêng của mình.
Kết quả là, HBM4 của Samsung cung cấp tốc độ truyền dữ liệu lên đến 11,7 gigabit mỗi giây, cao hơn nhiều so với tiêu chuẩn 8 Gbps của JEDEC. Con số này thể hiện sự cải thiện 37% so với tiêu chuẩn và tăng 22% so với thế hệ HBM3E trước đó.
Theo các nguồn tin, băng thông bộ nhớ trên mỗi stack đạt tới 3 terabyte mỗi giây — cao hơn khoảng 2,4 lần so với thế hệ tiền nhiệm — trong khi thiết kế xếp chồng 12 stack cho phép dung lượng lên đến 36 gigabyte. Với cấu hình 16 stack trong tương lai, dung lượng có thể mở rộng lên tới 48 GB, theo ước tính của ngành.
Mặc dù áp dụng các quy trình tiên tiến, Samsung đã đạt được năng suất ổn định trước khi sản xuất hàng loạt, và dự kiến sẽ có những cải tiến hơn nữa khi sản lượng được mở rộng, theo các nguồn tin cho biết.
Samsung cũng nhấn mạnh hiệu quả năng lượng, lưu ý rằng HBM4 được thiết kế để tối đa hóa hiệu năng tính toán trong khi giảm mức tiêu thụ năng lượng, giúp các trung tâm dữ liệu giảm chi phí điện năng và làm mát.
Công ty dự kiến doanh số bán HBM năm nay sẽ tăng hơn gấp ba lần so với năm trước và đã quyết định lắp đặt thêm các dây chuyền sản xuất tại Dây chuyền 4 của Khu phức hợp Pyeongtaek để mở rộng công suất. Cơ sở P4 dự kiến sẽ sản xuất khoảng 100.000 đến 120.000 tấm wafer mỗi tháng, dành riêng cho DRAM 1c được sử dụng trong các sản phẩm HBM4, theo các nguồn tin trong ngành.
Đến năm ngoái, Samsung đã xây dựng được công suất hàng tháng khoảng 60.000 đến 70.000 tấm wafer cho quy trình DRAM 1c. Với kế hoạch mở rộng, tổng sản lượng 1c dành cho HBM4 sẽ tăng lên khoảng 200.000 tấm wafer mỗi tháng, chiếm khoảng một phần tư tổng công suất sản xuất DRAM của Samsung, vốn khoảng 780.000 tấm wafer.
Thị trường HBM4 dự kiến sẽ do Samsung và SK hynix thống trị, trong khi Micron Technology của Mỹ sẽ gần như bị loại khỏi cuộc đua. Theo công ty nghiên cứu thị trường SemiAnalysis, SK hynix được ước tính sẽ chiếm khoảng 70% thị trường HBM4, còn Samsung dự kiến sẽ chiếm 30% còn lại.