Samsung Electronics đang nổi lên như một trong những công ty dẫn đầu sớm trong công nghệ bộ nhớ thế hệ tiếp theo SOCAMM2 dành cho máy chủ AI, bằng cách hợp tác chặt chẽ với Nvidia ngay từ giai đoạn thiết kế.
Nhà sản xuất chip Hàn Quốc hôm thứ Năm cho biết họ đã bắt đầu cung cấp các mẫu SOCAMM2 cho khách hàng, đánh dấu một cột mốc quan trọng khi ngành công nghiệp chuẩn bị cho nền tảng tăng tốc AI Rubin thế hệ tiếp theo của Nvidia.
SOCAMM2, viết tắt của Small Outline Compression Attached Memory Module (Mô-đun bộ nhớ nén kích thước nhỏ), được thiết kế để đáp ứng nhu cầu ngày càng tăng từ các trung tâm dữ liệu AI về bộ nhớ vừa nhanh vừa tiết kiệm năng lượng. Trong khi phần lớn sự bùng nổ AI tập trung vào bộ nhớ băng thông cao — được đặt cạnh các bộ xử lý đồ họa để cung cấp tốc độ dữ liệu cực nhanh — SOCAMM lại đóng một vai trò khác.
SOCAMM được ghép nối với các bộ xử lý trung tâm và được tối ưu hóa cho hiệu quả hệ thống tổng thể. Nó xếp chồng nhiều chip LPDDR5X, bộ nhớ công suất thấp thường được sử dụng trong điện thoại thông minh, vào một mô-đun máy chủ nhỏ gọn. Điều này cho phép các máy chủ AI xử lý lượng lớn dữ liệu trong khi tiêu thụ điện năng ít hơn đáng kể — một mối quan ngại ngày càng tăng khi các trung tâm dữ liệu phải đối mặt với những hạn chế ngày càng cao về điện năng.
Samsung cho biết quá trình phát triển chip DRAM SOCAMM2 của họ sắp hoàn tất, sản phẩm hiện đang bước vào giai đoạn cung cấp mẫu cho khách hàng. Quá trình phát triển bộ nhớ thường trải qua các giai đoạn từ mẫu kỹ thuật đến mẫu khách hàng và cuối cùng là sản xuất hàng loạt. Giai đoạn cung cấp mẫu cho khách hàng rất quan trọng, vì khách hàng kiểm tra tính ổn định, khả năng tương thích và khả năng sản xuất trong các hệ thống thực tế.
Việc đảm bảo xác nhận sớm đặc biệt quan trọng vì Nvidia có kế hoạch áp dụng SOCAMM2 trong nền tảng Vera Rubin sắp ra mắt của mình. Các nhà cung cấp được lựa chọn ở giai đoạn này thường có được lợi thế lớn khi việc triển khai quy mô lớn bắt đầu.
Samsung phải đối mặt với sự cạnh tranh từ SK hynix và Micron Technology, cả hai đều đang chạy đua để thương mại hóa các sản phẩm SOCAMM. Ban đầu, Micron dường như dẫn đầu trong việc phát triển SOCAMM thế hệ đầu tiên, nhưng sự chậm trễ về kỹ thuật đã làm chậm quá trình triển khai, khiến cuộc đua được thiết lập lại. Cả SK hynix và Micron đều cho biết họ đã cung cấp hoặc có kế hoạch cung cấp mẫu cho Nvidia.
Trong bài đăng trên blog công nghệ của mình, Samsung nhấn mạnh rằng họ "đang hợp tác chặt chẽ với Nvidia để tối ưu hóa SOCAMM2 cho cơ sở hạ tầng AI được tăng tốc", đồng thời cho biết mục tiêu là cung cấp khả năng phản hồi và hiệu quả năng lượng cần thiết cho các hệ thống suy luận AI thế hệ tiếp theo.
Nvidia cũng đồng tình với quan điểm đó. Dion Harris, giám đốc cấp cao về giải pháp điện toán hiệu năng cao và cơ sở hạ tầng AI tại Nvidia, cho biết hiệu quả bộ nhớ ngày càng trở nên quan trọng khi khối lượng công việc AI chuyển từ huấn luyện mô hình sang suy luận thời gian thực và lý luận phức tạp.
Samsung cho biết SOCAMM2 cung cấp băng thông gấp hơn hai lần so với bộ nhớ máy chủ thông thường trong khi tiêu thụ ít hơn 55% điện năng, cho phép các trung tâm dữ liệu xử lý khối lượng công việc AI nặng hơn mà không làm tăng đột biến mức tiêu thụ năng lượng.
Nhu cầu về bộ nhớ dựa trên LPDDR, nền tảng của SOCAMM2, dự kiến sẽ tăng trưởng nhanh chóng. Shinhan Investment dự báo tăng trưởng khiêm tốn vào năm 2025, tiếp theo là sự mở rộng mạnh mẽ vào năm 2026 khi các máy chủ AI ngày càng áp dụng các giải pháp bộ nhớ tiết kiệm năng lượng.
Các nhà phân tích ngành công nghiệp kỳ vọng thị trường SOCAMM2 sẽ phát triển nhanh chóng khi nền tảng Rubin của Nvidia đi vào sản xuất hàng loạt vào quý 2 năm 2026, với các nhà cung cấp tham chiếu ban đầu có khả năng chiếm được một phần đáng kể thị trường.