Theo các nguồn tin trong ngành hôm thứ Sáu, Google đang tích cực tìm cách cung cấp chip TPU của mình - đã được triển khai trong mô hình AI nội bộ Gemini 3 - cho các công ty công nghệ lớn khác, bao gồm Meta, công ty mẹ của Facebook và Instagram. Meta được cho là đang xem xét áp dụng TPU của Google cho các trung tâm dữ liệu dự kiến đi vào hoạt động vào năm 2027.
Được phát triển chung bởi Google và nhà sản xuất chip Broadcom của Mỹ, TPU được thiết kế để tăng cường hiệu suất và tốc độ cho các khối lượng công việc AI, định vị chúng là một lựa chọn thay thế cạnh tranh cho các bộ xử lý đồ họa thống trị của Nvidia. TPU của Google được cho là mang lại hiệu suất AI tương đương hoặc vượt trội mà không cần phụ thuộc vào phần cứng của Nvidia.
Điểm khác biệt của TPU là hiệu quả về chi phí. Các ước tính trong ngành cho thấy TPU rẻ hơn tới 80% so với GPU H100 hàng đầu của Nvidia. Mặc dù chip TPU thế hệ thứ bảy của Google, được gọi là Ironwood, có thể kém hơn chip Blackwell thế hệ tiếp theo của Nvidia về sức mạnh tính toán thuần túy, nhưng nó vẫn được coi là hiệu năng cao hơn H200.
Nvidia từ lâu đã duy trì vị thế độc quyền gần như tuyệt đối trên thị trường chip AI, với thị phần vượt quá 90%. Tuy nhiên, sự chuyển dịch sang các nhà cung cấp đa dạng hóa - đặc biệt là nếu TPU được áp dụng rộng rãi hơn - dự kiến sẽ cải thiện lợi nhuận trên toàn chuỗi cung ứng bán dẫn, mang lại lợi ích cho các công ty sản xuất bộ nhớ lớn như Samsung và SK hynix.
Một lý do chính là mỗi TPU chứa từ sáu đến tám mô-đun HBM, khiến việc mở rộng TPU gắn liền trực tiếp với nhu cầu HBM. Đáng chú ý, SK hynix hiện đang cung cấp chip HBM3E thế hệ thứ năm cho Ironwood của Google, và các nhà quan sát trong ngành cho rằng công ty có thể sẽ cung cấp các mô-đun HBM3E 12 lớp cho TPU thế hệ tiếp theo, có tên mã là "7e".
Chae Min-sook, nhà phân tích tại Korea Investment & Securities, cho biết: "Sự gia tăng áp dụng HBM của Google sẽ đóng vai trò như một chất xúc tác, làm trầm trọng thêm tình trạng thiếu hụt nguồn cung hiện tại". “Với cả giá bán trung bình và khối lượng xuất xưởng đều tăng, SK hynix và Samsung Electronics đang ở vị thế thuận lợi để gặt hái lợi ích kép.”
Sự bùng nổ dự kiến của các trung tâm dữ liệu AI cũng được kỳ vọng sẽ thúc đẩy nhu cầu đối với các sản phẩm DRAM thông thường -- chẳng hạn như DDR5 và LPDDR5 -- được sử dụng cùng với GPU, TPU và bộ xử lý trung tâm, từ đó thúc đẩy doanh số bán bộ nhớ.
Đồng thời, khi TSMC của Đài Loan, nhà sản xuất chip hàng đầu thế giới, tiếp tục tăng giá cho các quy trình tiên tiến, Samsung Foundry đang thu hút sự chú ý như một giải pháp thay thế khả thi nhờ những cải thiện gần đây về năng suất trên các node 3 nanomet và 2 nanomet. Khả năng cung cấp các giải pháp chìa khóa trao tay của Samsung -- tích hợp bộ nhớ, xưởng đúc và đóng gói tiên tiến -- cũng đang được xem là một lợi thế chiến lược.
“Việc mở rộng hệ sinh thái AI của Google thông qua TPU có thể mang lại nhiều lợi ích hơn cho Samsung, bao gồm tăng lượng xuất xưởng bộ nhớ, tỷ lệ sử dụng cao hơn cho các dây chuyền đúc tiên tiến của hãng và doanh số bán điện thoại thông minh Galaxy được hỗ trợ bởi Gemini AI thậm chí còn cao hơn nữa”, Kim Dong-won, nhà phân tích tại KB Securities, cho biết.
Một nguồn tin giấu tên trong ngành cho biết thêm rằng nhà máy chế tạo sắp tới của Samsung tại Taylor, Texas, có khả năng sản xuất chip dưới ngưỡng 2 nanomet, có thể mang đến cơ hội lớn nếu thị trường TPU tiếp tục mở rộng.