AMD 全新 AI 芯片发售在即,大单已在手,有望叫板英伟达
一、事件:AMD 发售 MI300 系列 GPU 媒体报道,在 12 月 6 日于圣何塞举办的 Advancing AI 在线发布会上,AMD 将发售 MI300 系列 GPU。根据此前发布会,MI300 系列产品包含 MI300A 与 MI300X 芯片。其中,MI300A 是由 1460 亿个晶体管组成的 CPU+GPU 加速器,这种布局可以让 CPU 更快地准备数据,将数据加载到 GPU 上,从而加快模型的训练。
一、事件:AMD 发售 MI300 系列 GPU
媒体报道,在 12 月 6 日于圣何塞举办的 Advancing AI 在线发布会上,AMD 将发售 MI300 系列 GPU。
根据此前发布会,MI300 系列产品包含 MI300A 与 MI300X 芯片。其中,MI300A 是由 1460 亿个晶体管组成的 CPU+GPU 加速器,这种布局可以让 CPU 更快地准备数据,将数据加载到 GPU 上,从而加快模型的训练。
MI300X 则是专为数据中心市场设计的严格 GPU 产品。据称,MI300X GPU 旨在推动 AI 计算的性能极限,预计将成为 AMD 在人工智能领域取得的新突破。AMD 执行长 Lisa Su 表示,MI300X 提供 5.2TBps 的内存带宽,比 Nvidia 的 H100(SXM)GPU 好 1.6 倍。
据新智元,目前,微软、Meta、甲骨文、谷歌、Supermicro/Quantadirect、亚马逊等公司已经向 AMD 下了大约 205,000 台 MI300 的订单。AMD 预测,MI300 芯片将是公司最快达到销售额 10 亿美元的产品。AMD 先前已上调本季 AI 相关 GPU 营收预测到 4 亿美元,估计该公司明年 AI 相关营收将达到 24 亿美元。
新品表现如何?
据,MI300 是 AMD 首款结合了 Zen4CPU 与 CNDA3GPU 的产品,也是市场上首款 “CPU+GPU+ 内存” 一体化产品。MI300 采用 3D 堆叠技术和 Chiplet 设计,在制程上 MI300 属台积电 5nm,相较 MI200 系列的 6nm 实现了跃迁,并与英伟达 GraceHopper 的 4nm 制程(属台积电 5nm 体系)看齐。
晶体管数量上,MI300 达到 1460 亿,多于英伟达 H100 的 800 亿,以及前代 MI250X 的 582 亿晶体管数量。算力上,MI300 的性能逼近英伟达 GraceHopper,相较上一代的 MI250X,MI300 在 AI 上的算力(TFLOPS)预计能提升 8 倍,能耗性能(TFLOPS/watt)将优化 5 倍。
价格方面,AMD 管理层在 FY23Q1 财报电话会中表示将延续往日的高性价比定价风格,Semianalysis 记者近期发文称,在性价比方面 AMD 的 MI300 将会明显优于英伟达的 H100。
软件生态是 AMD 最显著的劣势,认为,MI300 虽然目前可能在网络互联技术和生态圈较为受限,但在突出的性能和高性价比下或将成为 AMD 在 AI 竞争的关键拐点。
招商证券 [、]也表示,AMD 的 MI300A 和英伟达 GraceHopper 均属于创新性 CPU+GPU 整体方案,MI300X 对标英伟达 H100,AMD MI300 系列产品在 HBM 等指标参数上显著优于英伟达可比产品,未来或将有机会对英伟达近乎垄断的高端计算市场发起冲击。
此外,HBM 作为英伟达及 AMD 都在持续加码的产品,招商证券 [、]指出,当前 AI 算力升级带动服务器的 CPU 迭代并提升 GPU 需求,训练型 AI 服务器中 GPU 承担大部分算力,带动 AI 服务器存储容量和价值量较传统服务器数倍增长,HBM(高带宽存储器)能够突破训练型 AI 服务器的 GPU 带宽极限。根据 TrendForce,2023 年 HBM3 需求比重随 NVIDIAH100、AMDMI300 量产而提升,预期 HBM3 与 HBM3e 将成为明年市场主流,预估 2024 年 HBM 营收年增长率将达 172%。
二、历史龙头表现
北京时间 6 月 14 日,AMD 在美国旧金山举办的 “数据中心和人工智能技术首映式” 活动上,介绍了 MI300 系列在内的一系列数据中心及人工智能相关技术产品。
5 月初至发布会前夕,大涨超 50%。据悉,与 AMD 在封测领域有深度合作关系。
三、相关公司
据,AMD 产业链包括:
封测:
PCB:/
设计:
服务器:
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。