Micron cho biết quý tài chính thứ hai đạt kỷ lục nhờ nhu cầu DRAM tăng mạnh. Lãnh đạo hãng nhận định đây mới là giai đoạn khởi đầu, khi AI cần bộ nhớ nhanh và dung lượng lớn hơn để phát huy hết khả năng.
Micron nói nhu cầu bộ nhớ cho AI mới ở giai đoạn đầu
Trong cuộc trao đổi với CNBC, ông Sanjay Mehrotra - Chủ tịch kiêm Tổng giám đốc Micron - nhận định những gì thị trường AI đang chứng kiến hiện nay chỉ giống như những hiệp đầu của một trận đấu dài. Theo ông, khi các công ty AI mở rộng năng lực tính toán, bộ nhớ nhanh hơn và có mật độ cao hơn sẽ trở thành thành phần bắt buộc để hệ thống vận hành hiệu quả.
Ông Mehrotra lập luận rằng AI đang tiến nhanh, thể hiện rõ qua các công bố tại GTC, và vì thế bộ nhớ không còn là linh kiện phụ trợ mà trở thành tài sản chiến lược. Để AI chạy được đầy đủ tính năng, hệ thống cần nhiều bộ nhớ hơn và bộ nhớ phải nhanh hơn, nếu không phần tính toán mạnh đến đâu cũng khó phát huy hết.
Lãnh đạo Micron cũng nhấn mạnh giai đoạn AI được dùng rộng rãi để tạo câu trả lời đang kéo theo nhu cầu xử lý tăng lên. Khi phạm vi sử dụng AI mở rộng, khối lượng nội dung mà hệ thống phải tạo ra cũng tăng, và điều đó đòi hỏi dữ liệu ra vào bộ nhớ phải nhanh. Theo ông, nguồn cung bộ nhớ hiện rất căng, trong khi việc nâng công suất không thể làm nhanh, và tình trạng này phản ánh trực tiếp vào kết quả kinh doanh của Micron.

Thiếu nguồn cung đang là nút thắt của DRAM, NAND và HBM
Micron hoạt động ở nhiều mảng gồm DRAM, NAND và HBM, và hãng cho biết đều ghi nhận tăng trưởng nhờ nhu cầu tăng vọt từ làn sóng AI tác nhân. Trong bức tranh chung, bài toán là nguồn cung ngành đang khó theo kịp khi nhiều doanh nghiệp cùng lúc mở rộng hệ thống.
Micron mô tả nhu cầu phần cứng AI kéo theo nhu cầu bộ nhớ theo hai hướng: GPU AI yêu cầu HBM, CPU AI yêu cầu DRAM, và đoán xem, tất cả đều thiếu nguồn cung. Khi hệ thống muốn tạo nội dung nhanh hơn, nhà vận hành thường phải tăng năng lực tính toán, mà bộ nhớ là phần không thể tách rời của năng lực đó. Vì vậy, việc thiếu HBM và DRAM có thể trở thành điểm nghẽn, kể cả khi các thành phần khác sẵn sàng.
Ở phía GPU, các thế hệ HBM mới và dày hơn đang được đẩy mạnh. Những nền tảng sắp tới như Vera Rubin và MI400 với hỗ trợ HBM4 dự kiến tăng băng thông và đẩy dung lượng lên cao hơn, qua đó định hình tiêu chuẩn HBM thế hệ tiếp theo. Với DRAM, Micron nhìn nhận nhu cầu đang tăng nhanh do khối lượng công việc AI tác nhân khiến CPU phải hỗ trợ dung lượng bộ nhớ lớn hơn, có thể lên tới 400 GB trong một số cấu hình máy chủ. Hãng cũng cho rằng LPDDR đang nổi lên nhờ lợi thế tiết kiệm điện, phù hợp với các triển khai mở rộng quy mô lớn, nơi chi phí điện và tản nhiệt là yếu tố then chốt.

Kỷ lục quý 2 và kỳ vọng tiếp tục lập kỷ lục trong quý 3
Micron cho biết đã thiết lập kỷ lục mới trong quý tài chính thứ hai ở các chỉ tiêu như doanh thu, biên lợi nhuận gộp, lợi nhuận trên mỗi cổ phiếu và dòng tiền tự do. Hãng lý giải kết quả này đến từ môi trường nhu cầu mạnh, nguồn cung toàn ngành thắt chặt và khả năng thực thi của chính Micron. Ông Mehrotra cũng dự báo công ty có thể tiếp tục ghi nhận các mức kỷ lục đáng kể trong quý tài chính thứ ba.
Về xu hướng thị trường, Micron nêu kỳ vọng rằng nhu cầu AI đối với DRAM và NAND trong năm nay có thể vượt quá 50% tổng quy mô thị trường mục tiêu của toàn ngành. Dù nhu cầu từ máy chủ truyền thống và máy chủ AI vẫn được đánh giá là vững, Micron cho rằng tăng trưởng đang bị giới hạn bởi thiếu nguồn cung DRAM và NAND. Hãng dự báo nhu cầu DRAM còn tiếp tục tăng khi thị trường đón các nền tảng mới và các đợt nâng cấp hệ thống.
HBM4, HBM4E và bộ nhớ dung lượng lớn cho hạ tầng AI

Micron cho biết đang cung ứng DRAM HBM4 36 GB cấu hình 12-Hi cho nền tảng Vera Rubin của NVIDIA, đồng thời kỳ vọng đạt tỷ lệ thành phẩm ổn định trên các quy trình HBM3 hiện có. Công ty cũng nói đang phát triển bộ nhớ HBM4E thế hệ tiếp theo và dự kiến sẽ tăng sản lượng trong năm tới.
Ở mảng LPDDR, Micron gần đây công bố bộ nhớ SOCAMM2 256 GB với các mô-đun LPDDR5X, cho phép đạt tổng dung lượng tới 2 TB trong một cấu hình. Hãng cũng cho biết đang cung ứng bộ nhớ DDR5 cho Groq 3 LPX từ NVIDIA, và đề cập Groq LPU có thể đạt dung lượng tới 12 TB cho mỗi chip.
PC và smartphone có thể giảm, 32 GB trở thành mức phổ biến cho AI chạy tại chỗ
Với thị trường tiêu dùng, Micron dự báo số lượng máy PC và thiết bị di động sẽ giảm ở mức hai chữ số thấp, do nguồn cung bị hạn chế và giá cao hơn. Công ty cũng cho rằng dung lượng 32 GB đang trở thành lựa chọn phổ biến với PC chạy các tác vụ AI tác nhân trực tiếp trên máy, vì mức bộ nhớ này giúp hệ thống xử lý mượt hơn khi người dùng muốn chạy AI tại chỗ thay vì phụ thuộc hoàn toàn vào dịch vụ đám mây.
Max