SK Hynix, một trong những nhà sản xuất chip nhớ lớn nhất thế giới, hôm thứ Năm cho biết lợi nhuận quý 2 đạt mức cao nhất trong 6 năm qua khi công ty này duy trì vị trí dẫn đầu trong lĩnh vực chip nhớ tiên tiến quan trọng cho điện toán trí tuệ nhân tạo.
Sau đây là kết quả kinh doanh quý 2 của SK Hynix so với LSEG SmartEstimate, được đánh giá theo dự báo từ các nhà phân tích có độ chính xác cao hơn:
Doanh thu: 16,42 nghìn tỷ won Hàn Quốc (khoảng 11,86 tỷ đô la), so với 16,4 nghìn tỷ won Hàn Quốc. Lợi nhuận hoạt động: 5,47 nghìn tỷ won Hàn Quốc, so với 5,4 nghìn tỷ won Hàn Quốc
Lợi nhuận hoạt động trong quý 2 đạt mức cao nhất kể từ quý 2 năm 2018, phục hồi sau mức lỗ 2,88 nghìn tỷ won trong cùng kỳ năm ngoái.
Doanh thu từ tháng 4 đến tháng 6 tăng 124,7% so với mức 7,3 nghìn tỷ won ghi nhận một năm trước. Đây là doanh thu quý cao nhất từ trước đến nay trong lịch sử công ty, theo dữ liệu của LSEG có từ năm 2009.
Hôm thứ Năm, SK Hynix cho biết giá chung của các sản phẩm bộ nhớ liên tục tăng – nhờ nhu cầu mạnh mẽ về bộ nhớ AI bao gồm bộ nhớ băng thông cao – đã dẫn đến doanh thu tăng 32% so với quý trước.
Gã khổng lồ Hàn Quốc cung cấp chip nhớ băng thông cao phục vụ cho chipset AI cho các công ty như Nvidia . Cổ phiếu của SK Hynix đã giảm tới 7,81% vào sáng thứ năm.
Sự suy giảm diễn ra khi Kospi của Hàn Quốc chỉ số mất tới 1,91% sau khi cổ phiếu công nghệ Mỹ bị bán tháo qua đêm, sau Alphabet gây thất vọng và Tesla thu nhập. Những báo cáo này đánh dấu lần đầu tiên các nhà đầu tư nhìn nhận về tình hình hoạt động của các công ty vốn hóa lớn trong quý 2.
Công ty cho biết trong cuộc gọi báo cáo thu nhập vào thứ năm rằng: “Trong nửa cuối năm nay, nhu cầu mạnh mẽ từ máy chủ AI dự kiến sẽ tiếp tục cũng như sự phục hồi dần dần ở các thị trường thông thường với sự ra mắt của PC và thiết bị di động hỗ trợ AI”.
Tận dụng nhu cầu AI mạnh mẽ, SK Hynix có kế hoạch “tiếp tục dẫn đầu thị trường HBM bằng cách sản xuất hàng loạt các sản phẩm HBM3E 12 lớp”.
Công ty sẽ bắt đầu sản xuất hàng loạt HBM3E 12 lớp vào quý này sau khi cung cấp mẫu cho các khách hàng lớn và dự kiến sẽ giao hàng cho khách hàng vào quý 4.
Các công ty dẫn đầu về bộ nhớ như SK Hynix đã tích cực mở rộng năng lực HBM để đáp ứng nhu cầu ngày càng tăng về bộ xử lý AI.
HBM yêu cầu dung lượng wafer lớn hơn các sản phẩm bộ nhớ truy cập ngẫu nhiên động thông thường – một loại bộ nhớ máy tính được sử dụng để lưu trữ dữ liệu – mà SK Hynix cho biết cũng đang gặp khó khăn do nguồn cung hạn hẹp.
SK Hynix cho biết: “Nhu cầu đầu tư cũng đang tăng lên để đáp ứng nhu cầu của DRAM thông thường cũng như HBM, vốn đòi hỏi nhiều dung lượng wafer hơn DRAM thông thường. Do đó, mức capex của năm nay dự kiến sẽ cao hơn mức chúng tôi dự kiến vào đầu năm”.
“Mặc dù dự kiến tình trạng dư thừa công suất sẽ tăng vào năm tới do đầu tư công nghiệp tăng, một phần đáng kể trong số đó sẽ được sử dụng để tăng sản lượng HBM. Do đó, tình trạng cung cấp DRAM thông thường sẽ tiếp tục khan hiếm.”
Trong một lưu ý ngày 12 tháng 6, SK Kim của Daiwa Capital Markets cho biết họ dự kiến “nguồn cung HBM và bộ nhớ sẽ tiếp tục khan hiếm cho đến năm 2025 do tình trạng tắc nghẽn trong sản xuất HBM”.
“Theo đó, chúng tôi kỳ vọng môi trường giá thuận lợi sẽ tiếp tục và SK Hynix sẽ ghi nhận thu nhập mạnh mẽ trong năm 2024-25, được hưởng lợi từ khả năng cạnh tranh của công ty trong lĩnh vực HBM dành cho bộ xử lý đồ họa AI và SSD doanh nghiệp mật độ cao (eSSD) dành cho máy chủ AI, dẫn đến việc định giá lại cổ phiếu”, Kim cho biết.
Nguồn cung cấp chip nhớ băng thông cao đã được mở rộng nhờ việc áp dụng AI một cách bùng nổ nhờ các mô hình ngôn ngữ lớn như ChatGPT.
Các nhà phân tích cảnh báo rằng sự bùng nổ của AI dự kiến sẽ khiến nguồn cung chip nhớ cao cấp bị thắt chặt trong năm nay . Vào tháng 5, SK Hynix và Micron cho biết họ đã hết chip nhớ băng thông cao cho năm 2024, trong khi lượng hàng tồn kho cho năm 2025 cũng gần hết.
Các mô hình ngôn ngữ lớn đòi hỏi nhiều chip nhớ hiệu suất cao vì các chip này cho phép các mô hình này ghi nhớ các chi tiết từ các cuộc trò chuyện trước đó và sở thích của người dùng để tạo ra phản hồi giống con người.
SK Hynix chủ yếu dẫn đầu thị trường chip nhớ băng thông cao khi là nhà cung cấp duy nhất chip HBM3 cho Nvidia trước khi đối thủ Samsung được cho là đã vượt qua các bài kiểm tra để sử dụng chip HBM3 trong bộ xử lý Nvidia cho thị trường Trung Quốc. Công ty cho biết họ dự kiến sẽ xuất xưởng thế hệ tiếp theo của HBM4 12 lớp vào nửa cuối năm 2025.
>>> Tham gia đầu tư chứng khoán Hàn Quốc ngay hôm nay, tiếp cận thị trường mới tìm kiếm cơ hội đạt lợi nhuận lớn cùng chuyên gia Bucket-VN :
- Đăng ký tư vấn miễn phí và bắt tín hiệu thị trường chứng khoán Hàn Quốc tại: https://bucketvn.com/dang-ky-tu-van/
- Hotline: 028 3636 6553
- Group Facebook thảo luận : https://www.facebook.com/groups/bucketvn