当前位置: 欣欣网 > 码农

服务器报告:AI服务器产业链及公司解析(2024)

2024-02-21码农

编者注: 「 」和「 」已经更新发布,还没有获取的读者,请在点击「原文链接」在微店留言获取 PDF阅读版本 ), 已领取请忽略 作为购买过 架构师技术全店资料打包汇总(全) 读者福利 免费发放

以下内容来自华福证券,分析师:戴晶晶。服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCle插槽、散热和等。服务器CPU架构包 括X86、ARM、MIPS和RISC-V等。

Al芯片是Al服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。

HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。

服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NAND Flash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。

从服务器和Al服务器构成看,芯片和存储都是核心,决定着Al服务器的算力和宽带大小。传统的通用型服务器中,售价10424美金的2xIntel Sapphire Rapids Server,CPU的成本占比约17.7%,内存和硬盘占比超过50%。

而Al服务器,售价为268495美金的Nvidia DGXH100中,CPU占比仅1.9%,GPU占比高达72.6%。内存价值量提升,但占比下降至4.2%左右。Al服务器较通用服务器价值量提升明显。

Al服务器采取GPU架构,适合大规模并行计算。Al服务器由传统服务器演变发展而来。相比于通用服务器,Al服务器为异构服务器,可以多种组合方式,搭载多个GPU、CPU以及大算力Al芯片,极大程度解决传统服务器算力不足的缺点。Al服务器采用GPU架构,GPU具有众多计算单元和长流水线,简单控制逻辑,省去Cache。 面对类型统一、相互无依赖的大规模数据,处于无需中断的计算环境。相较之下,CPU被Cache和复杂控制逻辑占据,通用性导致复杂的内部结构,处理不同数据类型引入分支和中断。

Al芯片是Al服务器算力的核心。Al芯片是AI服务器算力的核心,也被称为Al加速器或计算卡,专门用于处理人工智能应用中的大量计算任务。按技术架构分类,Al芯片可分为GPU、 FPGA、ASIC和NPU等。GPU是一种通用型芯片,ASIC是一种专用型芯片,而FPGA则处于两者之间,具有半定制化的特点。按照功能分类,可分为训练和推理芯片。按照应用场景分类,可分为云端和边缘端芯片。随着Al PC、AI PIN、AIPHONE等更多应用场景出现,Al芯片的空间有望进一步打开。

关于CPU、服务器和存储详细技术及资料获取,请参考「 」,「 」、「 」、「 」、「 」、「 」、「 」、「 」等等。

相关阅读:

免责申明: 本号聚焦相关技术分享,内容观点不代表本号立场, 可追溯内容均注明来源 ,发布文章若存在版权等问题,请留言联系删除,谢谢。

推荐阅读

更多 架构相关技术 知识总结请参考「 架构师全店铺技术资料打包 (全) 」相关电子书( 41本 技术资料打包汇总详情 可通过「 阅读原文 」获取)。

全店内容持续更新,现下单「 架构师技术全店资料打包汇总(全) 」一起发送「 和「 pdf及ppt版本 ,后续可享 全店 内容更新「 免费 」赠阅,价格仅收 249 元(原总价 399 元)。

温馨提示:

扫描 二维码 关注公众号,点击 阅读原文 链接 获取 架构师技术全店资料打包汇总(全) 电子书资料详情