Tại sự kiện điện toán GTC 2025 do Nvidia tổ chức, SK Hynix đã giới thiệu chip nhớ xếp chồng HBM4 đầu tiên trên thế giới với dung lượng 36GB và băng thông 2 TB/s. Sản phẩm này đánh dấu bước tiến quan trọng trong lĩnh vực bộ nhớ băng thông cao, đáp ứng nhu cầu ngày càng tăng của các ứng dụng trí tuệ nhân tạo (AI) và xử lý dữ liệu lớn.
GTC 2025, diễn ra từ ngày 17 đến 25/3 tại San Jose, Mỹ, là sự kiện thường niên do Nvidia tổ chức, thu hút sự quan tâm của cộng đồng công nghệ toàn cầu. Tại sự kiện này, CEO Jensen Huang của Nvidia đã công bố loạt sản phẩm mới, bao gồm GPU RTX Pro 6000 kiến trúc Blackwell với 96GB bộ nhớ, cùng các kiến trúc GPU máy chủ thế hệ mới như Blackwell Ultra, Rubin và Feynman. Đặc biệt, Nvidia cũng giới thiệu các giải pháp AI PC như DGX Spark và DGX Station, nhằm hỗ trợ các nhà phát triển ứng dụng AI.
Trong khuôn khổ GTC 2025, SK Hynix đã trình diễn ba sản phẩm mới: module chip nhớ SOCAMM dựa trên chuẩn CAMM, chip nhớ xếp chồng HBM3e thế hệ mới với 12 lớp DRAM, và đặc biệt là chip nhớ HBM4 đầu tiên trên thế giới. Chip HBM4 của SK Hynix có dung lượng 36GB và băng thông 2 TB/s, tăng 60% so với HBM3e hiện tại. Để đạt được dung lượng này, SK Hynix sử dụng quy trình gia công Advanced MR-MUF, đảm bảo die silicon không bị cong vênh và hoạt động ổn định. Chip này dự kiến sẽ được sản xuất hàng loạt trong nửa cuối năm 2025, phục vụ các đối tác như Nvidia và AMD.
Trước đó, vào tháng 4/2024, SK Hynix đã công bố hợp tác với TSMC để phát triển HBM4 và công nghệ đóng gói tiên tiến. Sự hợp tác này nhằm tăng cường tích hợp logic và HBM thông qua công nghệ đóng gói hiện đại, đáp ứng nhu cầu ngày càng cao của thị trường chip AI. Đây là lần đầu tiên TSMC hợp tác với một công ty khác để phát triển công nghệ, cho thấy tầm quan trọng của HBM4 trong tương lai.
Nhu cầu về chip nhớ băng thông cao như HBM4 đang tăng mạnh, đặc biệt trong lĩnh vực AI và trung tâm dữ liệu. Nvidia, với hơn 80% thị phần chip AI toàn cầu, đã yêu cầu SK Hynix đẩy nhanh việc cung cấp HBM4 thêm 6 tháng, nhằm đáp ứng nhu cầu phát triển công nghệ AI. SK Hynix đang đối mặt với sự cạnh tranh từ Samsung Electronics và Micron Technology trong việc cung cấp HBM4. Cả Samsung và Micron đều đang nỗ lực phát triển và sản xuất HBM4 để đáp ứng nhu cầu thị trường.
HBM4 được kỳ vọng sẽ tăng gấp đôi băng thông bộ nhớ lên 2.048-bit, so với 1.024-bit của các thế hệ trước. Điều này sẽ cải thiện đáng kể hiệu suất xử lý dữ liệu, đáp ứng nhu cầu ngày càng cao của các ứng dụng AI và xử lý dữ liệu lớn. Tuy nhiên, việc phát triển HBM4 cũng đối mặt với thách thức về kỹ thuật và chi phí sản xuất. Các nhà sản xuất cần đảm bảo hiệu suất và độ tin cậy của chip, đồng thời kiểm soát chi phí để sản phẩm có thể cạnh tranh trên thị trường.
Với sự ra mắt của HBM4, ngành công nghiệp chip nhớ đang bước vào một giai đoạn mới, hứa hẹn mang lại những cải tiến vượt bậc trong hiệu suất và khả năng xử lý dữ liệu. Các ứng dụng AI, đồ họa máy tính và trung tâm dữ liệu sẽ được hưởng lợi lớn từ sự phát triển này. Tuy nhiên, để tận dụng tối đa tiềm năng của HBM4, các công ty cần đầu tư vào nghiên cứu và phát triển, đồng thời hợp tác chặt chẽ với các đối tác trong chuỗi cung ứng.
Việc SK Hynix trình diễn chip nhớ HBM4 đầu tiên trên thế giới với dung lượng 36GB và băng thông 2 TB/s là một bước tiến quan trọng trong lĩnh vực công nghệ bộ nhớ. Sự hợp tác chiến lược giữa các "ông lớn" như SK Hynix và TSMC, cùng với nhu cầu ngày càng tăng của thị trường, cho thấy HBM4 sẽ đóng vai trò quan trọng trong việc thúc đẩy sự phát triển của các ứng dụng AI và xử lý dữ liệu trong tương lai.