加入星計劃,您可以享受以下權益:

  • 創(chuàng)作內容快速變現
  • 行業(yè)影響力擴散
  • 作品版權保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
  • 推薦器件
  • 相關推薦
  • 電子產業(yè)圖譜
申請入駐 產業(yè)圖譜

受AI加速芯片新品帶動,HBM3與HBM3e將成為2024年HBM市場主流

2023/08/01
2787
閱讀需 4 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

2023年HBM(High Bandwidth Memory)市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數CSPs自研加速芯片皆以此規(guī)格設計。同時,為順應AI加速器芯片需求演進,各原廠計劃于2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。

HBM各世代差異,主要以速度做細分。除了市場已知的HBM2e外,在進入HBM3世代時,產業(yè)出現較為混亂的名稱。TrendForce集邦咨詢特別表示,目前市場所稱的HBM3實際需細分為兩種速度討論,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。

目前三大原廠HBM發(fā)展進度如下,兩大韓廠SK海力士(SK hynix)、三星(Samsung)先從HBM3開發(fā),代表產品為NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠預計于2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發(fā)HBM3e。

HBM3e將由24Gb mono die堆棧,在8層(8Hi)的基礎下,單顆HBM3e容量將一口氣提升至24GB,此將導入在2025年NVIDIA推出的GB100上,故三大原廠預計要在2024年第一季推出HBM3e樣品,以期在明年下半年進入量產。

CSP陸續(xù)啟動自研AI加速芯片計劃,欲擺脫對NVIDIA與AMD的依賴

觀察AI服務器(AI server)所用的加速芯片,其中英偉達(NVIDIA)Server GPU市占最高。然而,單張20,000~25,000美元的H100/H800,一臺AI服務器建議配置約為8張卡,也使得總體擁有成本(Total Cost of Ownership,TCO)大幅提升。TrendForce集邦咨詢觀察到,各云端服務業(yè)者(CSP)雖然仍會向NVIDIA或超威(AMD)采購Server GPU,但也同步進行自研AI加速芯片的計劃。

除了已經推出的Google TPU與AWS Trainium和Inferentia外,Google與AWS正著手研發(fā)次世代自研AI加速芯片,將采用HBM3或HBM3e。TrendForce集邦咨詢表示,其他包含北美及中國的云端服務業(yè)者亦有相關驗證進行中,預期未來AI加速芯片版圖競爭會更加激烈。

推薦器件

更多器件
器件型號 數量 器件廠商 器件描述 數據手冊 ECAD模型 風險等級 參考價格 更多信息
ATXMEGA128A3U-AUR 1 Microchip Technology Inc IC MCU 8BIT 128KB FLASH 64TQFP
$5.3 查看
DS3234S#T&R 1 Maxim Integrated Products Real Time Clock, 1 Timer(s), CMOS, PDSO20, 0.300 INCH, ROHS COMPLIANT, SOP-20
$7.73 查看
STM32F429VIT6 1 STMicroelectronics High-performance advanced line, Arm Cortex-M4 core with DSP and FPU, 2 Mbytes of Flash memory, 180 MHz CPU, ART Accelerator, Chrom-ART Accelerator, FSMC, TFT

ECAD模型

下載ECAD模型
$34.08 查看

相關推薦

電子產業(yè)圖譜