证券研究报告 ChatGPT芯片算力:研究框架 ——【AIGC算力时代系列报告】 行业评级:看好 2023年2月10日 分析师 邮箱 证书编号 陈杭 chenhang@stocke.com.cn S1230522110004 研究助理 邮箱 安子超 anzichao@stocke.com.cn 算力需求爆发拉动芯片量价齐升 光模块和光芯片 Transformer技术 模型迭代 量 预计每3.5个月翻一番 算力 模型训练成本> 1200万美元 英伟达GPU A100> ChatGPT完美运行 1万颗 AI芯片(加速器) 资料来源:浙商证券研究所 GPU 芯片 需求 价 AI训练计算需求 训练数据 芯片需求快速增加 芯片均价大幅提升 算力需求增加 模型算法 通过AI服务器实现 CPU FPGA AI 光模块 2 摘要 ChatGPT热潮席卷全球。ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI于2022年12月推出的对话AI模型, 一经面世便受到广泛关注,其2023年1月月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。在问答模式的基础上 ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加。 1、▲芯片需求=量↑ x 价↑ , AIGC拉动芯片产业量价齐升 1)量:AIGC带来的全新场景+原场景流量大幅提高。① 技术原理角度:ChatGPT基于Transformer技术,随着模型不断迭代, 层数也越来越多,对算力的需求也就越来越大;② 运行条件角度:ChatGPT完美运行的三个条件:训练数据+模型算法+算力, 需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。 95% 2)价:对高端芯片的需求将拉动芯片均价。采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。支撑 ChatGPT的算力基础设施至少需要上万颗英伟达GPU A100,高端芯片需求的快速增加会进一步拉高芯片均价。 添加标题 2、ChatGPT的“背后英雄”:芯片,看好国内GPU、CPU、FPGA、AI芯片及光模块产业链 1)GPU:支撑强大算力需求。由于具备并行计算能力,可兼容训练和推理,目前GPU被广泛应用于加速芯片。看好海光信息、 景嘉微; 2)CPU:可用于推理/预测。AI服务器利用CPU与加速芯片的组合可以满足高吞吐量互联的需求。看好龙芯中科、中国长城; 3)FPGA:可通过深度学习+分布集群数据传输赋能大模型。FPGA具备灵活性高、开发周期短、低延时、并行计算等优势。看 好安路科技、复旦微电、紫光国微; 4)ASIC:极致性能和功耗表现。AI ASIC芯片通常针对AI应用专门设计了特定架构,在功耗、可靠性和集成度上具有优势。看好 寒武纪、澜起科技; 5)光模块:容易被忽略的算力瓶颈。伴随数据传输量的增长,光模块作为数据中心内设备互联的载体,需求量随之增长。看好 德科立、天孚通信、中际旭创。 pOpMqQnNyQpRsPrNnNrNmPbRbP9PoMnNnPnOkPpPoMjMrQoM7NpOnOwMoNnMNZmPmQ 3 风险提示 1、AI技术发展不及预期 2、版权、伦理和监管风险 3、半导体下游需求不及预期 4 目录 01 ChatGPT带动算力芯片量价齐升 02 CPU、GPU、FPGA、AI芯片提 03 光模块支撑数据传输 C O N T E N T S 供底层算力支持 5 AI计算需要各类芯片支撑 01 Partone 算力需求爆发拉动 算力需求爆发,芯片量价 齐升 芯片量价齐升 AI服务器为算力载体 CPU、GPU、FPGA、 ASIC、光模块各司其职 6 01 人工智能四层架构,芯片为底层支撑 AI绘画:盗梦师 AI音乐:DeepMusic 百度:文心大模型 华为:盘古大模型 百度:PaddlePaddle 上层应用 大模型 深度学习框架 华为:MindSpore CPU AIGC GPU 底层芯片 AI写作:弈写 ChatGPT 谷歌:PaLM OpenAI:GPT3.5 Meta:PyTorch 谷歌:TensorFlow FPGA ASIC 7 资料来源:澜舟科技,IDC,量子位,电子发烧友等,浙商证券研究所 01 人工智能不同计算任务需要各类芯片实现 • 强大的调度、管理、 协调能力; • 应用范围广 • 开发方便灵活 通 用 性 强 , • 并行架构 • 计算单元多 • 适合大量逻辑确定 的重复计算 • • • • 低延时 开发周期短 硬件可根据需求调整 成本和壁垒高 • • • • 成本低 能耗低 性能强 针对AI设定特定架构 CPU GPU 应 用 方 便 FPGA ✓ 逻辑判断 ✓ 任务调度与控制 ✓ 模型训练 ✓ 研发阶段 ✓ 数据中心 ✓ AI推理 性能更优,能效更高 资料来源:Huawei forum,浙商证券研究所 AI用ASIC ✓ 成熟量产阶段 8 ChatGPT流量激增,为AI服务器带来重要发展机遇 01 原场景流量提升+新应用场景 服务器算力要求提升 达成1亿月活跃用户耗时 终端用户使用频率提高, 数据流量暴涨,对服务器 的数据处理能力、可靠性 及安全性等要求相应提升 史上用户增速最 快消费级应用 2个月 9个月 30个月 54个月 60个月 AI服务器需求增加 传统CPU服务器 通用性较强,专用性较弱 算力无法满足 78个月 应用 数据的质和量发生变化, 非结构化数据占比激增 AI服务器需求 288亿美元 原场景流量提升 创造新应用场景 ChatGPT在问答模式的基础上进行推理、编写代码、 文本创作等,用户人数及使用次数均提升。 智能客服 游戏NPC 智能音箱 内容生产 陪伴型机器人 资料来源:Sensor Tower,World of Engineering,头豹研究院,华经产业研究院,浙商证券研究所 CAGR=18.8% 全球AI服 务器市场 规模 122亿美元 …… 9 2020 2025 AI服务器快速增长,大力拉动芯片需求 01 中国人工智能服务器工作负载预测 训练 中国人工智能芯片市场规模占比 推理 ASIC, 1.0% 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% FPGA, 0.4% AI服务器=? 异构形式 NPU, 9.6% CPU 2020 2021 2022 2023 2024 2025 2026 2021年全球服务器市场格局 其他, 17.1% 新华三/HPE, 15.6% GPU, 89.0% 2021年中国服务器市场格局 其他, 21.8% 浪潮, 30.7% ODM, 8.5% 浪潮, 8.9% 华为, 1.1% 联想, 6.4% GPU 或 FPGA 戴尔, 15.4% ODM, 35.5% + 或 联想, 6.6% 华为, 7.4% 戴尔, 7.5% 新华三/HPE, 17.5% 资料来源:IDC,《2022-2023中国人工智能计算力发展评估报告》,芯八哥,wind,浙商证券研究所整理 ASIC 10 AI服务器芯片构成——CPU+加速芯片 CPU+加速芯片:通常搭载GPU、 FPGA、ASIC等加速芯片,利用 CPU与加速芯片的组合可以满足 高吞吐量互联的需求 芯片种类 应用场景 应用领域 AI服务器 计算机视觉 优点 机器学习 (算力 >30TOPS) 自然语言处理 缺点 GPU 提供了多核并行计算的基础结构,核心 数多,可支撑大量数据的并行计算,拥 有更高浮点运算能力 管理控制能力弱,功 耗高 FPGA 可以无限次编程,延时性较低,拥有流 水线并行(GPU只有数据并行),实时 性最强,灵活性最高 开发难度大,只适合 定点运算,价格比较 昂贵 ASIC 与通用集成电路相比体积更小,重量更 灵活性不够,价格高 轻,功耗更低,可靠性提高,性能提高, 于FPGA 保密性增强,成本降低 资料来源:华经产业研究院,亿欧智库,浙商证券研究所 训练 高度 适配 推理 (算力 >30TOPS) 计算 (5~30TOPS) 11 01 CPU擅长逻辑控制,可用于推理/预测 整个CPU的指挥控制中心,由指 令寄存器IR、指令译码器ID和操 作控制器OC等组成。 暂时存 放数据 的区域, 保存等 待处理 或已经 处理过 的数据。 控制单元 控制指令 存储单元 CPU 数据 取指令 指令译码 执行指令 修改指令 计数器 作为计算机系统的运算和控制核心, 是信息处理、程序运行的最终执行单元。 控制指令 优势 有大量的缓存和复杂的逻辑控制单元, 擅长逻辑控制、串行的运算。 劣势 计算量较小,且不擅长复杂算法运算和 处理并行重复的操作。 运算单元 执行部件,运算器的核心。可以执行算术运 算和逻辑运算。运算单元所进行的全部操作 都是由控制单元发出的控制信号来指挥。 资料来源:CSDN,浙商证券研究所整理 CPU运行原理 在深度学习中可用于推理/预测 12 01 服务器CPU向多核心发展,满足处理能力和速度提升需要 多核心CPU 单核心CPU 串行单任务处理 分时多任务处理 “一心一用” “一心多用” 英特尔 从单核到多核 AMD 从双核到96核 处理的任务更多、 处理速度更快 分时多任务处理 “多心多用” 系统性能优劣不能只考 虑CPU核心数量,还要 考虑操作系统、调度算 法、应用和驱动程序等。 2005 2010 2017 2020 奔腾D系列 酷睿i7-980X 酷睿i9 Lakefield 史上第一个双核 处理器 首款6核处理器 18核处理器 首款采用混合架构 的x86 5核处理器 2005 2007 2018 2020 2023 Athlon 64 X2 Phenom9500 第二代锐龙 Threadripper 锐龙Threadripper 3990X 霄龙9004 同一块芯片内整 合两个K8核心 首款原生4核处 理器 最大核心数量已 达到32核 拥有64核 资料来源:芯论语,半导体产业纵横,AMD官网,浙商证券研究所 2023 Sapphire Rapids 拥有56个核心 核心数量最多可 达9

pdf文档 计算机行业AIGC算力时代系列报告:ChatGPT芯片算力,研究框架-20230210-浙商证券-29页

网站升级 > 碳达峰碳中和书籍 > 碳达峰碳中和书籍 > 文档预览
29 页 0 下载 358 浏览 0 评论 0 收藏 3.0分
温馨提示:当前文档最多只能预览 5 页,若文档总页数超出了 5 页,请下载原文档以浏览全部内容。
本文档由 2023-06-13 15:47:28上传分享
给文档打分
您好可以输入 255 个字符
中国约定的碳达峰是哪一年( 答案:2030 )
评论列表
  • 暂时还没有评论,期待您的金玉良言