Một phiên bản của Samsung Electronics’ (005930.KS) chip bộ nhớ băng thông cao thế hệ thứ năm (HBM), hay HBM3E, đã vượt qua Nvidia (NVDA.O) thử nghiệm để sử dụng trong bộ xử lý trí tuệ nhân tạo (AI) của mình, ba nguồn tin được tóm tắt về kết quả cho biết.
Chứng nhận này xóa bỏ rào cản lớn đối với nhà sản xuất chip nhớ lớn nhất thế giới vốn đang phải vật lộn để bắt kịp đối thủ địa phương SK Hynix (000660.KS) trong cuộc đua cung cấp chip nhớ tiên tiến có khả năng xử lý công việc AI tạo ra.
Các nguồn tin cho biết Samsung và Nvidia vẫn chưa ký thỏa thuận cung cấp chip HBM3E tám lớp đã được phê duyệt nhưng họ sẽ sớm thực hiện và dự kiến việc cung cấp sẽ bắt đầu vào quý 4 năm 2024.
Tuy nhiên, theo các nguồn tin giấu tên, phiên bản chip HBM3E 12 lớp của gã khổng lồ công nghệ Hàn Quốc vẫn chưa vượt qua được các bài kiểm tra của Nvidia vì vấn đề này vẫn được giữ bí mật.
Cả Samsung và Nvidia đều từ chối bình luận.
HBM là một loại bộ nhớ truy cập ngẫu nhiên động hoặc tiêu chuẩn DRAM được sản xuất lần đầu tiên vào năm 2013, trong đó các chip được xếp chồng theo chiều dọc để tiết kiệm không gian và giảm mức tiêu thụ điện năng. Một thành phần chính của bộ xử lý đồ họa (GPU) cho AI, nó giúp xử lý lượng dữ liệu khổng lồ do các ứng dụng phức tạp tạo ra.
Reuters đưa tin vào tháng 5, trích dẫn nguồn tin, Samsung đã nỗ lực vượt qua các bài kiểm tra của Nvidia đối với HBM3E và các mẫu HBM3 thế hệ thứ tư trước đó kể từ năm ngoái nhưng gặp khó khăn do vấn đề tiêu thụ điện năng và nhiệt .
Theo các nguồn tin được thông báo về vấn đề này, công ty đã thiết kế lại thiết kế HBM3E để giải quyết những vấn đề đó.
Sau khi bài báo của Reuters được xuất bản vào tháng 5, Samsung cho biết thông tin chip của hãng không vượt qua được bài kiểm tra của Nvidia do vấn đề tiêu thụ điện năng và nhiệt là không đúng sự thật.
Dylan Patel, người sáng lập nhóm nghiên cứu chất bán dẫn SemiAnalysis, cho biết: “Samsung vẫn đang phải cố gắng đuổi kịp HBM”.
“Trong khi họ (sẽ) bắt đầu vận chuyển HBM3E 8 lớp vào quý 4, thì đối thủ SK Hynix của họ đang chạy đua để vận chuyển HBM3E 12 lớp cùng lúc.”
Cổ phiếu của Samsung Elec tăng 4,3% vào thứ Tư, vượt mức tăng 2,4% trên thị trường chung (.KS11). Tính đến 0451 GMT. SK Hynix tăng 3,4%.
Đợt phê duyệt thử nghiệm mới nhất diễn ra sau khi Nvidia gần đây chứng nhận chip HBM3 của Samsung được sử dụng trong các bộ xử lý ít phức tạp hơn được phát triển cho thị trường Trung Quốc, theo Reuters đưa tin vào tháng trước.
Việc Nvidia chấp thuận chip HBM mới nhất của Samsung diễn ra trong bối cảnh nhu cầu về GPU tinh vi tăng cao do sự bùng nổ của AI tạo ra mà Nvidia và các nhà sản xuất chipset AI khác đang phải vật lộn để đáp ứng.
Theo công ty nghiên cứu TrendForce, chip HBM3E có khả năng trở thành sản phẩm HBM chính thống trên thị trường trong năm nay với các lô hàng tập trung vào nửa cuối năm. SK Hynix, nhà sản xuất hàng đầu, ước tính nhu cầu về chip nhớ HBM nói chung có thể tăng với tốc độ hàng năm là 82% cho đến năm 2027.
Vào tháng 7, Samsung dự báo rằng chip HBM3E sẽ chiếm 60% doanh số bán chip HBM của hãng vào quý 4, một mục tiêu mà nhiều nhà phân tích cho rằng có thể đạt được nếu chip HBM mới nhất của hãng vượt qua được sự chấp thuận cuối cùng của Nvidia vào quý 3.
Samsung không cung cấp thông tin phân tích doanh thu cho các sản phẩm chip cụ thể. Theo khảo sát của Reuters với 15 nhà phân tích, tổng doanh thu chip DRAM của Samsung ước tính đạt 22,5 nghìn tỷ won (16,4 tỷ đô la) trong sáu tháng đầu năm nay, và một số người cho biết khoảng 10% trong số đó có thể đến từ doanh số bán HBM.
Chỉ có ba nhà sản xuất HBM chính – SK Hynix, Micron (MU.O) và Samsung.
SK Hynix là nhà cung cấp chip HBM chính cho Nvidia và đã cung cấp chip HBM3E vào cuối tháng 3 cho một khách hàng mà họ từ chối tiết lộ danh tính. Các nguồn tin trước đó cho biết lô hàng đã được chuyển đến Nvidia.
Micron cũng cho biết họ sẽ cung cấp chip HBM3E cho Nvidia.