设为首页 - 加入收藏
广告 1000x90
您的当前位置:主页 > 教程 > 服务器 > 正文

AI 服务器价格涨近 20 倍!带火哪些芯片?

来源:未知 编辑:天选资讯 时间:2023-05-26

  天选团队ChatGPT 大火后,各大科技企业纷纷发力 AI 大模型,作为通用的算力芯片,英伟达的高端 GPU 开始供不应求。A100 价格从去年年底开始暴涨,至今涨幅接近 40%,连上一代 V100 的价格也被炒到近 10 万元,中国特供版 A800 更是相当紧缺。

  AI 服务器的涨价很大程度上与这波行情有关,作为算力的基础设施,无论是训练,还是模型推理,AI 服务器都是必需品,且往往需要的不止是一台两台。那么 AI 服务器是什么?跟一般服务器有什么区别?英伟达的 GPU,为何让 AI 服务器大涨特涨?除了 GPU,AI 服务器里还用到哪些芯片?哪些芯片能够跟着受益?

  AI 服务器由传统服务器演变而来。服务器,几乎是办公室打工人手里电脑的翻版,它属于高性能计算机,存储、处理着网络上 80% 的数据、信息,被称为网络的灵魂。

  如果微机、笔记本、手机等网络终端是分布在家庭、办公场所 、公共场所的电话机,那么服务器就是邮局的交换机,把网友们共享的网络游戏、网站,企业的数据等存放其中,又可分为文件服务器、云计算服务器、数据库服务器等。

  相比电脑,服务器在稳定性、安全性、性能等方面都要求更高,毫不夸张地说,每年双十一若不是有足够牛 X 的服务器,购物狂欢节会变成 网络错误 或 请稍后再试 的刷屏节。

  毕竟短短一两分钟内,就要处理剁手党们发送给电商服务器的上千亿交易订单,再发送给用户进行响应,数据流量到达巅峰(2018 年,天猫双 11 支付峰值为 25.6 万笔 / 秒,数据库处理峰值为 4200 万次 / 秒),每年对服务器的性能都是一次大考。

  这操作放在 1964 年诞生的第一代服务器System/360 身上大概是无法想象的,那时无论网络还是分布式计算都没诞生,当年 IBM 推出它的时候,还是在协助美国太空总署建立阿波罗 11 号的数据库,助力人类登月。它每秒可计算 100 万次,价格高达 200-300 万美元一台,体积庞大,很多银行采购这样的 IBM 大型机开展业务。

  很快在 1965 年,服务器的价格被打了下来,这年 DEC 公司开发了 PDP-8 小型机,掀起了小型机革命。90 年代初,互联网兴起,RISC 架构的服务器如日中天,英特尔 x86 架构的服务器让很多小企业甚至是个人用户都能买得起,不到 20 年的时间,英特尔迅速统治了各类计算机市场。

  机器学习和人工智能代表了一个基本的新架构,人工智能需要专属的基础结构进行承载和支撑,AI 服务器从此应运而生。

  谷歌、BAT 等企业面对海量的数据,打造一座数据中心时,通常都要配备成千上万台服务器。以用到 A100 的 ChatGPT 为例,其部署的大算力计算,每个 GPU 或大算力 AI 芯片的算力大于 100TFLOPS。这时就要给服务器们上更高的配置,强强联手,搭载 GPU 或者其他类型的 AI 芯片,比如 GPU 就非常擅长做一些 CPU 做不了的密集型数据运算。

  AI 服务器和普通服务器最大的区别,就是 AI 服务器通常打组合拳,比如CPU+GPU、CPU+TPU、CPU+ 其他的加速卡等,CPU 在 AI 服务器中,彻底卸下了算力的包袱,当当领导指挥下就行。

  一台 AI 服务器的价格,从去年到现在涨了近20 倍。而一台普通服务器,都换不到 AI 服务器里的 8 个 GPU,价格上相形见绌。大家都在数据中心里躺着,凭什么 AI 服务器这么金贵,价格疯涨?

  在 AI 服务器中,CPU 退居幕后,GPU 等 AI 芯片在其中充当主角做大量运算,算力无止境,事实上,AI 服务器通常有且不仅只有一块 GPU。

  虽然 FPGA、各类 ASIC 芯片也可以做大量运算,但 GPU 强大的通用性使得它更吃香。IDC 数据显示,2021 年上半年中国人工智能芯片行业中,GPU 显著成为实现数据中心加速的首选,占有 90% 以上的市场份额。

  CPU 方面,AI 服务器一般仅搭载 1-2 块 CPU,GPU 的数量就占上风了,根据 GPU 数量的不同,AI 服务器进一步分为四路、八路和十六路服务器,搭载 8 块 GPU 的八路 AI 服务器最常见。

  AI 大模型分为训练和推理两种,训练模型要求的算力很高,推理相对要求低一点,但大模型总有一天会训练出来,推理却永无止境,比如 ChatGPT 与我们对话就是推理的过程,从算力总需求上来看,推理可能甚至要高过训练。

  算力的高低最直观的影响就是速度,谁也不想训练一个模型要耗上个把年,等 AI 回答个问题,等到人老珠黄。在这个内卷的时代,谁快,谁就有饭吃。

  放在整机上,GPU 的成本还是遥遥领先,无人能敌。普通服务器和 AI 服务器的 BOM 表显示,AI 服务器单机平均售价(ASP)比普通服务器要高出 5 倍,AI 服务器对 AI 芯片如英伟达的 A100 需求大,而普通服务器甚至都不需要用到专业的 AI 芯片。

  普通服务器最贵的 CPU,单机 ASP 14400 美元,不到 AI 服务器中 GPU 96000 美元的四分之一,而普通服务器 40000 美元的单机总成本 ASP,也不及 AI 服务器 GPU 这一项成本的一半。讲个笑话,一台普通服务器,都换不到八路 AI 服务器里的 8 个英伟达 A100。

  这就是 AI 服务器容易价格疯涨的原因,背后成本占比高,单价昂贵的英伟达 A100 等 GPU 几乎成了决定性因素。

  挖矿潮过去后,英伟达显然嗅到了生成式 AI 热潮的铜臭味。有业内人士表态,早在去年 6 月开始,英伟达就已经宣布上调 A100 价格,涨幅在 20% 左右,由于美国禁令,英伟达特供中国的 A800 版本在 ChatGPT 爆火之前已经出现了涨价,导致市场上出现了众多炒货行为。

  虽然国内有华为、百度、阿里等自研的 AI 芯片,也有部分服务器厂商使用这些芯片,但整个 AI 服务器市场,英伟达还是独占鳌头的那个,所以英伟达就成了 AI 服务器这条涨价线的源头。

  ChatGPT 的大火,导致英伟达高端 GPU 价格一路上涨。有代理商透露,英伟达 A100 价格从去年 12 月开始上涨,截至今年 4 月上半月,5 个月价格累计涨幅达到 37.5%;同期 A800 价格累计涨幅达 20.0%。

  GPU 的持续缺货,进一步影响 AI 服务器厂商的出货,连带着下游云服务厂商,AI 企业都要受到影响。今年以来,AI 服务器价格大涨的消息不绝于耳。

  英伟达也向台积电追加订单,但 GPU 需要的先进制程产能毕竟有限,因此交货周期还是没有幸免拉长,之前拿货周期大约为一个月,现在基本都需要三个月或更长。甚至,部分新订单 可能要到 12 月才能交付 。

  一些云服务厂商开始缩衣减食,严格限制内部对 GPU 的使用量。有厂商表示,后悔买少了。 颇有种汽车缺芯时那种差之一 芯 ,失之万台的感觉。天选

  无论 GPU 如何带动 AI 服务器涨价,本质上是 AI 市场需求的体现,就像前两年汽车缺芯一样。这种需求的出现往往伴随的不只是一种芯片的激增。

  中金测算,AI 服务器核心组件按价值量由高到低依次为GPU、DRAM、SSD、CPU、网卡、PCB、高速互联芯片和散热模组等,按 7.5 万台训练型和 17.5 万台推理型服务器测算,对应市场规模分别为 240 亿美元、88 亿美元、48 亿美元、34 亿美元、5 亿美元、3 亿美元、2.5 亿美元和 1.5 亿美元。

  而除了 GPU、存储这两个价值量提升比较大的芯片外,接口、网卡、散热、PCB 等的价值量都有提升。相较普通双路服务器,AI 服务器核心器件单机价值量提升倍数由高到低依次为GPU(24x)、DRAM(5.3x)、板内互联接口芯片(3.3x)、电源管理(3x)、散热(3x)、PCB(2.4x)、网卡(2.2x)和 SSD(2x)。

  据 Open AI 测算,2012 年以来全球头部 AI 模型训练算力需求 3-4 个月翻一番,每年头部训练模型所需算力增长幅度高达 10 倍,远超摩尔定律的增长速度,GPT-3 相较 GPT-2 在数据存储端从百 G 提升至 40T,在存储量上有约 100 倍的提升。

  美光的数据显示,一台 AI 服务器DRAM 使用量是普通服务器的 8 倍,NAND 是普通服务器的 3 倍。此外,HBM(高带宽内存)也逐步提高在中高端 GPU 中的渗透率,自 2021 年以来在数据中心应用中快速增长,2023 年 2 月以来,HBM3 规格 DRAM 价格上涨。TrendForce 预测,2023-2025 年 HBM 市场 CAGR 有望成长至 40%-46% 以上。

  根据美光测算,数据中心整体存储需求约占存储总市场的 31%,2021 年数据中心 DRAM 和 NAND 分别约 300 亿美元和 200 亿美元,预计到 2025 年分别增长至 500 亿美元和 300 亿美元,预计到 2030 年分别增长至 1000 亿美元和 700 亿美元,2021 年 ~2025 年合计 CAGR 为 14%。随着数据量的大规模增长,存储设备在数据中心采购的 BOM 中占比进一步提升,美光曾提及,目前存储芯片在数据中心采购中比例约为40%,未来预计将提升至 50%。

  x86、ARM、RISC-V 是 CPU 的三大技术架构,在服务器市场,x86 处理器市占率超 90% 处于主导地位,而英特尔是 CPU 市场,特别是服务器领域是绝对的领导者。

  Mercury Research 最新公布的统计数据显示,2023 年第一季度,英特尔继续在台式 PC、移动和数据中心 CPU 市场占据主导地位,在整个 X86 数据中心市场,英特尔市场份额为 74.2%,AMD 市场份额为 25.8%。

  服务器用的 CPU 从制程工艺上而言可能都落后于个人电脑用的一代,但售价往往是其 10 倍以上。但两者逻辑不同,服务器讲究后台运算,它看重功耗和稳定性,以此通过更多的核心数,更大的缓存来提高算力,而个人电脑强调影音娱乐体验,频率要求高。

  数模信号混合芯片,Retimer,功能主要为重新生成信号。在 AI 服务器中,GPU 与 CPU 连接时至少需要一颗 Retimer 芯片来保证信号质量。很多 AI 服务器都会配置多颗 Retimer 芯片,例如 Astera Labs 在 AI 加速器中配置了 4 颗 Retimer 芯片。目前谱瑞、Astera labs、澜起科技是 PCIe Retimer 蓝海市场中的三家主要厂商,占据领先地位。

  高速串行接口芯片,针对 AI 服务器中 PCIe 带宽限制对于 GPU 间通信带来的阻碍,以 NVIDIA NVLink 为代表的高速接口芯片应运而生。全球各大芯片厂商均在关注高速接口的相关技术,除了 NVIDIA 的 NVLink 之外,AMD 的 Infinity Fabric 和 Intel 的 CXL(Compute Express Link)等也为服务器内部的高速串联提供了解决方案。

  内存接口芯片,按功能分为两类,分别是寄存缓冲器(RCD)以及数据缓冲器(DB)。内存接口芯片是技术密集型行业,需要通过 CPU、内存和 OEM 厂商的全方位严格验证后,方可进行大规模使用,新的玩家很难介入。在 DDR5 世代,全球只有三家供应商可提供 DDR5 第一子代的量产产品,分别是澜起科技、瑞萨电子(IDT)和 Rambus。

相关推荐:

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片

织梦模板大全 dedecms.codesdq 联系QQ:121673232 邮箱:121673232@qq.com

Copyright © 2002-2011 DEDECMS. 织梦科技 版权所有 Power by DedeCms

Top