Công ty trụ sở Santa Clara (California) nói rằng, chip mới có bộ nhớ trong lên tới 192 gigabyte, sẽ được tung ra thị trường vào quý III, trước khi bắt đầu sản xuất quy mô lớn 3 tháng sau đó.
MI300X thuộc dòng Instinct MI300 chuyên cho các mô hình AI tạo sinh - công nghệ trong ChatGPT và các chatbot khác. Sản phẩm ra mắt ngày 13/6 được đánh giá có thông số tương đương chip H100 mạnh nhất từ Nvidia.
Cụ thể, MI300X sử dụng kiến trúc CDNA được thiết kế cho mô hình ngôn ngữ lớn và mô hình AI tiên tiến. "Trọng tâm của chip là khả năng xử lý đồ họa. GPU đang cho phép tạo ra AI mạnh mẽ", bà Lisa Su, CEO AMD, cho biết.
Kể từ khi làn sóng AI bùng nổ, GPU chuyên dụng là những thiết bị được các hãng công nghệ như OpenAI sẵn đón bậc nhất để phát triển các chương trình AI tiên tiến như ChatGPT.
Theo các nhà phân tích, nếu chip do AMD sản xuất (được gọi là bộ gia tốc cho AI) được các nhà phát triển AI và nhà sản xuất máy chủ chấp nhận để thay thế cho các sản phẩm của Nvidia, nó có thể mở ra một thị trường cực kỳ tiềm năng cho Đội Đỏ, vốn nổi tiếng với các mẫu chip cho máy tính truyền thống.
"Chúng tôi nghĩ (thị trường) thiết bị gia tốc AI của các trung tâm dữ liệu sẽ tăng từ khoảng 30 tỷ USD trong năm nay, với tốc độ tăng trưởng gộp hàng năm trên 50%, lên hơn 150 tỷ USD vào năm 2027," CEO AMD Lisa Su tuyên bố.
Mặc dù AMD không tiết lộ giá bán các sản phẩm chip AI của mình, nhưng động thái này có thể gây áp lực về giá đối với GPU của Nvidia, chẳng hạn như dòng H100, vốn được cho là có giá từ 30.000 USD trở lên. Đương nhiên, giá bán GPU cho AI thấp hơn có thể giúp giảm chi phí cho việc phục vụ các ứng dụng AI tổng quát, vốn đang rất 'ngốn tiền'.
AMD cho biết chip MI300X mới và kiến trúc CDNA của nó được thiết kế cho các mô hình ngôn ngữ lớn và các mô hình AI tiên tiến khác. MI300X có thể sử dụng dung lượng bộ nhớ lên tới 192GB, có nghĩa là nó có thể phù hợp với các mô hình AI có quy mô lớn hơn so với các chip AI khác trên thị trường.
Chẳng hạn, mẫu GPU H100 của Nvidia chỉ hỗ trợ dung lượng bộ nhớ lên tới 120GB. Các mô hình ngôn ngữ lớn cho các ứng dụng AI tổng quát sử dụng nhiều bộ nhớ, do các mô hình này phải chạy số lượng phép tính ngày một nhiều.
Được biết, AMD đã cho chip MI300x chạy thử trên mô hình 40 tỷ tham số có tên là Falcon. Để so sánh, mô hình GPT-3 của OpenAI có 175 tỷ tham số.
"Kích thước của mô hình ngôn ngữ ngày càng lớn hơn và bạn thực sự cần nhiều GPU để chạy các mô hình lớn mới nhất," CEO Lisa Su nói.
Đến nay, một trong những lý do nhà phát triển AI ưa thích chip Nvidia là gói phần mềm được phát triển hoàn thiện có tên CUDA, cho phép họ truy cập các tính năng phần cứng cốt lõi của chip. Tuy nhiên, AMD cho biết họ cũng có sản phẩm tương tự gọi là ROCm.
AMD dự kiến bán MI300X vào cuối năm nay, nhưng chưa công bố giá. Có thể sản phẩm sẽ thấp hơn 40.000 USD - mức giá Nvidia đang áp dụng cho chip H100 mạnh nhất của mình. "Giá rẻ hơn giúp AMD tăng cạnh tranh, cũng như giúp chi phí tạo hệ thống đào tạo AI tạo sinh rẻ hơn trong tương lai", trang này bình luận. "Nếu chip AI của AMD được các nhà phát triển và sản xuất máy chủ chấp nhận, đó có thể là thị trường lớn chưa được khai phá".
Theo bà Su, chip AI hiện mới trong giai đoạn đầu phát triển. "AI là cơ hội tăng trưởng dài hạn lớn nhất và mang tính chiến lược của công ty", bà nói. "Chúng tôi dự đoán thị trường chip AI cho trung tâm dữ liệu sẽ tăng từ 30 tỷ USD trong năm nay lên hơn 150 tỷ USD năm 2027, với tốc độ tăng trưởng gộp hàng năm trên 50%".