设为首页 - 加入收藏
广告 1000x90
您的当前位置:主页 > 教程 > 服务器 > 正文

2023年中国智算中心技术架构分析 AI芯片、AI服务

来源:未知 编辑:天选资讯 时间:2023-09-06

  天选团队《智能计算中心创新发展指南》指出,智算中心的发展基于最新人工智能理论和领先的人工智能计算架构,算力技术与算法模型是其中的关键核心技术,算力技术以 AI 芯片、AI 服务器、AI 集群为载体,而当前的算法模型发展趋势以 AI 大模型为代表。在此基础上,通过智算中心操作系统作为智算中心的 神经中枢 对算力资源池进行高效管理和智能调度,使智算中心更好地对外提供算力、数据和算法等服务,支撑各类智慧应用场景落地。而软件生态则是智算中心 好用、用好 的关键支撑。

  基于 AI 芯片的加速计算是当前智能计算的主流模式。AI 芯片通过和 AI 算法的协同设计来满足 AI 计算对算力的超高需求。当前主流的 AI 加速计算主要是采用 CPU 系统搭载 GPU、FPGA、ASIC 等异构加速芯片。

  近年来,国产 AI 加速芯片厂商持续发力,在该领域取得了快速进展,相关产品陆续发布,覆盖了 AI 推理和 AI 训练需求,其中既有基于通用 GPU 架构的芯片,也有基于 ASIC 架构的芯片,另外也出现了类脑架构芯片,总体上呈现出多元化的发展趋势。

  根据《智能计算中心创新发展指南》,AI 服务器是智算中心建设中投入比重最大、最为关键的设备。AI 服务器是智算中心的算力机组。当前 AI 服务器主要采用 CPU+AI 加速芯片的异构架构,通过集成多颗 AI 加速芯片实现超高计算性能。目前业界以 NVLink 和 OAM 两种高速互联架构为主,其中 NVLink 是 NVIDIA 开发并推出的一种私有通信协议,其采用点对点结构、串列传输,可以达到数百 GB/s 的 P2P 互联带宽,极大地提升了模型并行训练的效率和性能。

  根据 IDC 发布的《中国半年度加速计算市场 ( 2022 下半年 ) 跟踪》报告,2022 年中国 AI 服务器市场规模达到 67 亿美元,同比增长 24%。其中 GPU 服务器依然是主导地位,占据 89% 的市场份额,达到 60 亿美元。同时 NPU、ASIC 和 FPGA 等非 GPU 加速服务器以同比 12% 的增速占有了 11% 的市场份额,达到 7 亿美元。

  大模型参数量和训练数据复杂性快速增长,对智算系统提出大规模算力扩展需求。通过充分考虑大模型分布式训练对于计算、网络和存储的需求特点,可以设计构建高性能可扩展、高速互联、存算平衡的 AI 集群来满足尖端的智能计算需求。

  2023 年 7 月,华为宣布昇腾 AI 集群全面升级,推出首个万卡 AI 集群,拥有更快的训练速度和 30 天以上的稳定训练周期,十倍领先业界。目前,昇腾 AI 集群已支撑全国 25 个城市的人工智能计算中心建设,其中 7 个城市公共算力平台入选首批国家 新一代人工智能公共算力开放创新平台 。

  超大规模智能模型,简称大模型,是近年兴起的一种新的人工智能计算范式。和传统 AI 模型相比,大模型的训练使用了更多的数据,具有更好的泛化性,可以应用到更广泛的下游任务中。按照应用场景划分,AI 大模型主要包括语言大模型、视觉大模型和多模态大模型等。业界典型的自然语言大模型有 GPT-3、源、悟道和文心等。视觉大模型也已广泛应用于自动驾驶、智能安防、医学影像天选等领域。基于多模态大模型的以文生图技术也迅速发展,AI 内容生成 ( AI Generated Content,AIGC ) 已成为下一个 AI 发展的重点领域。

  更多本行业研究分析详见前瞻产业研究院《中国智算中心行业发展前景预测与投资战略规划分析报告》。

  同时前瞻产业研究院还提供产业大数据产业研究报告产业规划园区规划产业招商产业图谱智慧招商系统行业地位证明IPO 咨询 / 募投可研IPO 工作底稿咨询等解决方案。在招股说明书、公司年度报告等任何公开信息披露中引用本篇文章内容,需要获取前瞻产业研究院的正规授权。

  更多深度行业分析尽在【前瞻经济学人 APP】,还可以与 500+ 经济学家 / 资深行业研究员交流互动。

相关推荐:

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片

织梦模板大全 dedecms.codesdq 联系QQ:121673232 邮箱:121673232@qq.com

Copyright © 2002-2011 DEDECMS. 织梦科技 版权所有 Power by DedeCms

Top