国外产品展示网站源码,四川网站建设的公司,广西网站推广优化,模具 东莞网站建设根据TrendForce的数据#xff0c;AI服务器的出货量约为130,000台#xff0c;占全球服务器总出货量的约1%。随着微软、Meta、百度和字节跳动等主要制造商相继推出基于生成式AI的产品和服务#xff0c;订单量显著增加。预测显示#xff0c;在ChatGPT等应用的持续需求推动下AI服务器的出货量约为130,000台占全球服务器总出货量的约1%。随着微软、Meta、百度和字节跳动等主要制造商相继推出基于生成式AI的产品和服务订单量显著增加。预测显示在ChatGPT等应用的持续需求推动下从2023年到2027年AI服务器市场预计将保持每年12.2%的复合年增长率。在这种背景下AI服务器的发展尤为引人注目。
DGX H100开拓AI领域的先驱性进展
DGX H100是英伟达NVIDIA DGX系统于2022年发布的最新版本也是英伟达NVIDIA DGX SuperPOD的核心。该系统采用8个H100 GPU和6400亿个晶体管其AI性能是上一代的6倍尤其是在新的FP8精度方面表现出色。此外DGX服务器还可提供900GB/s带宽彰显了AI能力的显著提升。
DGX H100服务器采用IP网卡既可作为网卡又可作为PCIe扩展交换机符合PCIe 5.0标准。此外服务器还包括CX7以2张卡的形式提供每张卡含有4个CX7芯片并提供2个800G OSFP光模块端口。对于GPU互连H100NVSwitch芯片起到关键作用。每个GPU向外扩展18个NVLink实现每个链路双向带宽达到50GB/s总共达到900GB/s的双向带宽。这些带宽分布在4个内置的NVSwitch芯片上每个NVSwitch对应4-5个OSFP光模块。每个OSFP光模块使用8个光通道传输速率为100Gbps/通道因此总速率达到800Gbps实现高速数据传输。 CPU、GPU等组件互连采用PCIe交换机和重定时芯片进行连接
PCIe交换机技术的演进克服通道限制
PCIe交换机也称为PCIe集线器是一个关键组件用于通过PCIe通信协议连接PCIe设备。它通过扩展和聚合功能使多个设备能够连接到1个PCIe端口可在很大程度上克服PCIe通道数量局限的问题。目前PCIe交换机广泛应用于传统存储系统并在各种服务器平台上越来越受欢迎为系统内的数据传输速率提供显著改善。
随着时间的推移PCIe总线技术的进展意味着PCIe交换机速率的逐渐增加。最初由英特尔于2001年作为第三代I/O技术以3GIO的名义推出经过PCI-SIG的评估后在2002年更名为PCI Express。2003年正式发布的PCIe 1.0成为一个重要的里程碑支持每通道传输速率为250MB/s总传输速率为2.5 GT/s。在2022年PCI-SIG正式发布了PCIe 6.0规范将总带宽提升至64 GT/s。 PCIe重定时行业的主导趋势
在AI服务器中为了确保GPU和CPU连接时的信号质量至少需要使用一个重定时芯片。一些AI服务器选择使用多个重定时芯片比如Astera Labs就在其AI加速器配置中集成了4个重定时芯片。 目前PCIe重定时市场具有巨大的潜力有三家领先品牌和许多潜在竞争对手。目前Parade Technologies、Astera Labs和澜起科技是这个蓬勃发展市场的主要参与者占据重要的地位。值得注意的是作为PCIe部署的早期使用者澜起科技是中国内地唯一能够大规模生产PCIe 4.0重定时的供应商。此外澜起科技在PCIe 5.0重定时的开发方面也取得了稳步进展。 此外Renesas、TI和微芯科技等芯片制造商也积极参与PCIe重定时产品的开发。根据官网站信息Renesas提供2款PCIe 3.0重定时产品分别是89HT0816AP和89HT0832P。TI提供了一款16Gbps 8通道PCIe 4.0重定时产品- DS160PT801。此外微芯科技在2020年11月推出了XpressConnect系列的重定时芯片旨在实现PCIe 5.0的32GT/s速率。
GPU之间的互连NVLink和NVSwitch
全球主要芯片制造商非常重视推广高速接口技术。其中英伟达NVIDIA的NVLink、AMD的Infinity Fabric和英特尔的CXL都做出了重要贡献。
NVLink是由英伟达NVIDIA开发的高速互连技术。它旨在加速CPU与GPU、GPU与GPU之间的数据传输速率提升系统性能。从2016年到2022年NVLink经历多次升级已经发展到第四代。2016年英伟达NVIDIA配合Pascal GP100 GPU的发布推出第一代NVLink。NVLink采用了高速信号互连NVHS技术主要用于GPU之间和GPU与CPU之间的信号传输。GPU之间通过差分阻抗电信号以NRZ不归零形式进行编码传输。第一代NVLink单链路实现了40GB/s的双向带宽单个芯片可以支持4个链路总双向带宽达到160GB/s。 NVLink不同阶段的发展
NVLink技术经历多次迭代推动了高速互连的创新。2017年基于Volta架构推出第二代NVLink。它实现每个链路50GB/s的双向带宽每个芯片支持6个链路总双向带宽达到300GB/s。2020年基于Ampere架构的第三代发布总双向带宽达到600GB/s。在2022年基于Hopper架构的第四代推出。这一迭代转向使用PAM4调制的电信号每个链路保持50GB/s的双向带宽每个芯片支持18个链路总双向带宽达到900GB/s。
NVSwitch的发展推动实现高性能GPU互连
在2018年英伟达NVIDIA推出NVSwitch的最初版本为增强带宽、减少延迟和促进服务器内多个GPU之间的通信提供解决方案。第一代NVSwitch采用TSMC的12nm FinFET工艺制造拥有18个NVLink 2.0接口。通过部署12个NVSwitch1个服务器可以容纳和优化16个V100 GPU之间的互连速率。 目前NVSwitch已经发展到第三代采用TSMC的4N工艺制造。每个NVSwitch芯片配备了64个NVLink 4.0端口使GPU之间的通信速率达到了900GB/s。通过NVLink Switch互连的GPU可以集体作为一个具有深度学习能力的高性能加速器运行。
总结
PCIe芯片、重定时芯片和NVSwitch等接口互连芯片技术的发展很大程度上增强CPU和GPU之间以及GPU之间的互动能力。这些技术的相互作用凸显了人工智能服务器的动态景观为高性能计算的进步做出贡献。