热线:13683175175

首页 > 行业新闻

国产AI 算力芯片研究报告 2024

2024-04-19 • 450阅读

1. 市场规模:

   - 预测数据显示,2024年中国AI芯片市场规模将进一步增长至数千亿元人民币级别,具体数字可能达到2302亿元人民币左右。

   - 全球范围内,AI芯片市场规模预期在2024年将达到671亿美元,相比2023年增长约25.6%,并且预计在未来几年内持续快速扩张。

2. 市场细分:

   - 国产AI算力芯片包括但不限于GPU、FPGA、ASIC芯片(如VPU、TPU),其中GPU仍占据主导地位,但随着专用AI芯片的发展,ASIC芯片的市场份额有望增加。

   - 国内市场上,国产芯片厂商如华为、海光、寒武纪等正在崛起,并逐渐在AI芯片领域取得突破,尤其是在算力自主可控的战略背景下,这些企业的市场影响力和份额预计会显著提升。

3. 企业竞争格局:

   - 截至2024年2月,中国AI算力行业累计企业数量超过200家,并且呈现出逐年增长的趋势,特别是在特定年份出现了注册企业的爆发性增长。

   - 国产AI芯片企业在技术创新、产品开发、市场拓展等方面展开激烈竞争,不断推出新的芯片解决方案以满足不同应用场景的需求,尤其是针对数据中心、边缘计算、自动驾驶、物联网等领域。

4. 发展前景:

   - 到2024年,国产AI芯片新增市场空间巨大,有券商预测新增市场空间在600亿至800亿人民币之间,显示出国产AI芯片替代进口产品及开拓新市场的巨大潜力。

   - 在全球供应链不稳定及对算力需求持续攀升的背景下,国产AI芯片不仅在国内市场扮演重要角色,也寻求在全球市场中占据更大的份额。

总结来说,2024年的国产AI算力芯片全景图展现了一个蓬勃发展的行业生态,国内厂商在技术研发、市场竞争、市场规模等方面均展现出积极向上的态势,同时也在努力克服技术难题、降低成本、提高产能,以应对日益增长的市场需求和国际竞争压力。

6、智能算力成为数字经济发展的新引擎

7、国家和地方密集出台政策支持智算布局

表1. 我国部委智算中心建设相关政策


我国高度重视智算产业发展,围绕智算中心、人工智能、大模型等先后出台系列政策文件,加快产业布局。

“十四五”规划和 2035 年远景目标纲要中明确提出要“加快构建全国一体化大数据中心体系,强化算力统筹智能调度,建设若干国家枢纽节点和大数据中心集群”。工信部、国家发改委等先后出台《新型数据中心发展三年行动计划(2021-2023 年)》、《全国一体化大数据中心协同创新体系算力枢纽实施方案》等文件,启动“东数西算”重大工程。

2023 年 4 月,中共中央政治局会议中强调“要重视通用人工智能发展,营造创新生态,重视防范风险。”7 月,科技部批复 25 个平台建设国家新一代人工智能公共算力开放创新平台(含筹建)。

表 2.我国各省市智算中心建设相关政策

地方政府纷纷发布智算产业相关政策,开展智算中心相关基础设施建设工作,提供普惠算力服务。北京发布《北京市促进通用人工自能创新发展的若干措施》高效推动算力基础设施建设,将新增算力建设项目纳入算力合作伙伴计划,加快推动智算中心建设,形成规模化先进算力供给。

上海出台《上海市助力中小微企业稳增长调结构强能力若干措施》助力中小企业数字化转型,发放“AI 算力券”,重点支持租用本市智能算力且用于核心算法创新、模型研发的企业,最高按合同费用 20%进行支持。成都印发《成都市围绕超算智算加快算力产业发展的政策措施》明确每年发放总额不超过 1000 万元的算力券,用于支持算力中介服务机构、科技型中小微企业和创客、科研机构、高校等使用国家超算成都中心、成都智算中心算力资源。

8、智算产业全景及新进展

1、智算产业链初步形成,生态集聚效应不断增强

图 2 智算产业链图谱

目前,我国智算产业链已经初步形成,涵盖由芯片、软件、硬件供应商构成的上游产业,由云商、电信运营商、第三方数据中心服务商等构成的中游产业,以及由互联网、交通、金融、工业等行业等用户构成的下游产业。

(一)上游:AI 芯片领域形成多方竞争格局 


(二)中游:云商及 IDC 服务商基于自身优势提供智算服务及解决方案 云商、科技公司借助自身技术壁垒提供大模型及平台服务。主流云商一方面自建大型智算中心,如 Meta 宣布取消或暂停部分正在建设的数据中心,对其 11 个正在开发的项目进行重新设计,彻底转向人工智能数据中心的建设。

另一方面加速布局 AI 大模型,如谷歌“PaLM-2”、Meta“Llama 2”等。特斯拉、苹果等科技公司基于自身业务优势,一方面自建定制化智算中心,如特斯拉面向自动驾驶等领域建设超算中心 Dojo,拥有超过 100 万个训练节点,算力达到1.1EFLOPS[10]。另一方面,积极布局 AI 大模型体系,巩固自身行业优势壁垒,如特斯拉 AI 机器人“擎天柱”、苹果“Apple GPT”。

IDC 服务商依托云/网资源优势,积极参与智算建设。国内运营商积极建设智算中心及平台,如中国电信推出息壤智能计算平台,提供智算、超算、通算多样化算力服务,为大模型训练、无人驾驶、生命科学等场景提供软硬一体解决方案,RDMA 吞吐可高达 1.6Tb[11]。国外 IDC 服务商仍在布局阶段,如 2023 年日本 NTT 宣布将在 5 年内投资 8 万亿日元(约合 590 亿美元)用于人工智能、数据中心和其他增长领域[12] ;Equinix 的 2023 年全球科技趋势调查报告显示,人工智能应用率上升,但 IT 基础设施没有为人工智能做好充足准备。

(三)下游:车企领衔行业大模型落地应用 

互联网、交通、金融、工业等行业,基于大模型带动自动驾驶、机器人、元宇宙、智慧医疗等下游产业发展。海外大模型行业应用主要在传媒游戏、机器人、办公等领域落地,如 Meta 推出 AI Sandbox为广告生成不同的文字、Apple 推出生成式人工智能元宇宙产品Visin Pro 头显,并计划在 siri 嵌入类 GPT 功能。哈维基于 GPT 及行业数据推出 AI 法律助手。

国内大模型行业应用主要聚焦金融、医疗、传媒游戏、智能汽车等领域,如百度文心大模型助力浦发银行、泰康保险在投资决策、理赔信息检索等方面的应用。华为盘古大模型为国家电网电力巡检提供智能服务。


车企布局智算中心用于自动驾驶大模型训练。特斯拉基于 Dojo超级计算机先后推出 BEV 大模型、端到端自动驾驶大模型,推动高阶智能驾驶落地,预计到 2024 年算力将达 100EFLOPS。吉利星睿智算中心自研汽车行业 AI 对话模型,初步完成百亿参数的大模型训练,吉利星睿智算中心(湖州)预计 2025 年算力规模将达 1.2EFLOPS[14]。

小鹏汽车自动驾驶智算中心“扶摇”(乌兰察布),基于阿里飞天智算平台,算力可达 600PFLOPS,将小鹏自动驾驶核心模型的训练提速近 170 倍[15]。毫末智行智算中心“雪湖·绿洲”(山西大同),基于火山引擎智算云解决方案,算力达 670PFLOPS,模型训练效率提升 100倍[16]。

9、国产自研 AI 芯片加速入场,短期高效供给仍受限



10、智算中心建设版图持续扩张,智算服务灵活多样

智算中心聚焦东部城市,以政府主导国产化为主。

截至 2023 年5 月,全国超 35 个城市在建或投运 44 个智算中心(在建 15 个智算中心,投运 29 个智算中心),其中明确面向 AI 大模型应用的有 11个。

地理分布集聚一线及省会城市,与大模型研发分布强相关。智算中心建设以东部为主,京津冀、长三角、粤港澳共 29 个(占比近 66%),其中 9 个在建,20 个投运,面向西部枢纽节点逐渐开展布局。

东部多为政府主导建设,且国产化占比高(54%),西部以云商自建为主。地方政府牵头主导 34 个(占比近 80%),主要满足当地 AI 产业发展,且以华为昇腾、寒武纪等为主要合作方提供国产化能力。

西部以云商为主,如阿里乌兰察部智算中心、字节跳动与毫末智行合建雪湖绿洲(山西大同)智算中心。

受限于需求不清晰、高性能芯片产业生态不成熟等因素影响,智算规模普遍偏小。智算中心规模在 100-300PFLOPS 内占比超 70%以上,超过 1EFLOPS 规模的智算中心约占 25%(超半数为云商及大型企业自建),且全部集中在京津冀、长三角和粤港澳区域。


由于智算需求场景多样且高度定制化,相较于传统数据中心,智算中心服务模式呈现多元化特点,包括机房托管、算力租赁、智算平台、工具集及咨询等增值服务、模型即服务(MaaS)、大模型应用服务以及各种组合模式。

(一)机房托管:机房托管服务与传统数据中心服务模式类型相同,但需要面向智算提供更高层次的定制化(功耗、配电、网络等),主要面向云商、AI 公司、大型央企等客户。

(二)算力租赁:主要面向中小型科技公司、IT 公司、小参数量的模型(10B 规模)等客户,通过将闲置 GPU 资源通过云服务的形式将服务器或虚拟机租用给用户,采用按使用时间及利用率收费。

(三)大模型托管、训练、部署、订阅等从 IaaS 到 SaaS 全线服务。

一是提供 GPU 主机、高性能计算、批量计算等 IaaS 产品。

二 是依靠智算平台提供公有云和专有云,为各类科研、公共服务和企业机构提供算力调度、数据处理、模型开发等一体化智能计算服务。

三 是通过 MaaS 提供模型定制、精调、部署等一站式模型服务。四是基于大模型和 MaaS 能力全面智能升级 SaaS 应用,帮助企业构建行业大模型或集成在企业应用上、以及面向公众用户提供搭载大模型应用的基于大模型的搜索引擎、数字人等服务。


未来智算服务模式将由现阶段集成 AI 大模型能力的云产品的卖方市场,逐步过渡到围绕产品提供配套衍生服务,最终形成基于标准化智算中心基于“AI 原生”生态服务的买方市场。

11、大模型呈蓬勃发展态势,助力产数业务发展

我国大模型研发快速增长,大模型研发分布以东部城市为主。全球已发布的大模型分布来看,中国和美国大幅领先,超过全球总数的 80%,美国在大模型数量方面始终居全球最高,中国从 2020 年进入大模型快速发展期,目前与美国保持同步增长态势。

据不完全统计,目前中国 10 亿参数规模以上的大模型已发布 79 个,14 个省市/地区都在开展大模型研发,与智算中心布局一致,主要集中在北京(38个)、广东(20 个)、浙江(5 个)和上海(5 个)[18]。其中大模型开源占比过半,高校/科研机构是开源主力。清华大学的 ChatGLM-6B、复旦大学的 MOSS 以及百度的文心系列大模型开源影响力最高。

通用大模型不仅需要海量数据与雄厚算力支撑,对资金实力、人才队伍等也提出更高要求。如 ChatGPT 单次训练成本高达数百万美金,OpenAI 核心团队 87 人,全部来自世界顶尖高等院校。未来将呈现少数几家通用大模型,并涌现出无数更贴近产业需求的行业大模型的趋势。

智算赋能行业应用,是产数业务发展的“加速器”。

行业大模型通过对垂直细分领域的数据进行更有针对性的训练和优化,从而更好地理解行业的语义和规范,更有效地执行专业性更强的任务如金融的风险控制和投资决策,医疗的图像识别和诊断,交通的调度和路径优化,能源的能耗预测、碳排放监测等。

预计生成式 AI 能为这些行业带来 1000 亿美元到 3000 亿美元的收益。通用大模型企业基于自有通用大模型+外部行业数据的模式拓展多个行业大模型,行业公司基于开源大模型+内部行业数据赋能自身应用。截至 2023 年 8 月,国内已落地的行业大模型共 72 个,主要集中在金融(14 个,19.4%)、医疗(14 个,19.4%))、传媒游戏(8 个,11.1%)及教育科研(8 个,11.1%)。





12 国产 AI 算力芯片正起星星之火

12.1 AI 芯片赋能算力基石,英伟达垄断全球市场

AI 算力芯片主要包括 GPU、FPGA,以及以 VPU、TPU 为代表的 ASIC 芯片。其中以 GPU 用量最大,据 IDC 数据,预计到 2025 年 GPU 仍将占据 AI 芯片 8 成市场份额。然而,相较传统图形 GPU,通用型算力 GPU 在芯片架构上缩减了图形图像显示、渲染等功能实现,具有更优的计算能效比,因而被广泛应用于人工智能模型训练、推理领域。

表1:主流 AI 芯片分类


根据在网络中的位置,AI 芯片可以分为云端 AI 芯片 、边缘和终端 AI 芯片;根据其在实践中的目标,可分为训练( training )芯片和推理( inference )芯片。

云端主要部署高算力的 AI 训练芯片和推理芯片,承担训练和推理任务,具体有智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。

图1:云端、边缘和终端 AI 芯片应用情况


由于英伟达 GPU 产品线丰富、产品性能顶尖、开发生态成熟,目前全球 AI 算力芯片市场仍由英伟达垄断。根据中国信通院的数据,2021 年 Q4 英伟达占据了全球 95.7%的 GPU 算力芯片市场份额,因此,英伟达数据中心业务营收增速可以较好地反应全球 AI 芯片市场增速。2023 财年,英伟达数据中心营收达到 150 亿美元,同比增长 41%,FY2017-FY2023 复合增速达 63%,表明全球 AI 芯片市场规模保持高速增长。


1.2 性能与生态构筑 AI 算力芯片高壁垒









12.3.1 寒武纪

寒武纪成立于 2016 年,公司研发团队成员主要来自于中科院,董事长陈天石曾任中科院计算所研究员。寒武纪 AI 芯片思元 290 面向云端训练,思元 370 面向云端训推一体,两款芯片均采用 7nm 制程工艺。此外,思元 370 是寒武纪首款采用 chiplet 技术的 AI 芯片,最大算力高达 256TOPS;训练侧新品思元 590 在研发中。

图5:思元 370 系列板卡与业内主流 GPU 性能对比


2 月 27 日,寒武纪发布 2022 年业绩快报,公司 2022 年实现营收 7.29 亿元,同比增长 1.11%;实现归母净利润-11.66 亿元,亏损同比扩大 41.40%。寒武纪 2022 年归母净利润亏损同比扩大主要原因系公司研发费用、资产减值损失、信用减值损失有所增长。

2022 年,寒武纪云端产品已打入阿里云等头部互联网客户,并与头部银行等金融领域客户进行了深度技术交流,同时亦得到了头部服务器厂商的认可。

展望2023 年,随着 ChatGPT 为代表的 AI 大模型不断涌现,AI 算力需求有望加速增长,从而驱动 AI 算力芯片需求增长。寒武纪作为国内领先的 AI 芯片公司,产品研发、市场拓展、客户导入均有较强先发优势,有望深度受益 AI 发展的浪潮与 AI 算力芯片国产化趋势,在 23 年取得快速成长。

12.3.2 海光信息

海光信息成立于 2014 年,公司骨干研发人员多拥有国内外知名芯片公司的就职背景,拥有成功研发 x86 处理器或 ARM 处理器的经验。海光信息的 DCU 芯片深算一号采用 7nm 工艺,兼容“类 CUDA”环境,软硬件生态丰富,已于 2021年实现规模化出货,未来将广泛应用于大数据处理、人工智能、商业计算等领域。

表5:海光深算一号与 NVIDIA、AMD 产品参数比较


2 月 23 日,海光信息发布 2022 年业绩快报,公司 2022 年实现营收 51.25亿元,同比增长 121.83%;实现归母净利 8.02 亿元,同比增长 145.18%。2022年,海光信息在保持高研发投入的同时,大力拓展国内市场,有效提升了公司在国内高端处理器领域的领先优势和市场地位,业务稳步增长。

12.3.3 沐曦集成电路

沐曦集成电路成立于 2020 年,公司创始团队处于国内顶尖行列——创始人陈维良曾任 AMD 全球 GPGPU 设计总负责人;两位 CTO 均为前 AMD 首席科学家,目前分别负责公司软硬件架构;核心成员平均拥有近 20 年高性能 GPU 研发经验。沐曦于 2022 年 7 月完成 10 亿元 Pre-B 轮融资,由混沌投资领投。沐曦首款异构 GPU 产品 MXN100 采用 7nm 制程,已于 2022 年 8 月回片点亮,主要应用于推理侧;应用于 AI 训练及通用计算的产品 MXC500 已于 2022 年 12 月交付流片,公司计划 2024 年全面量产。

图6:沐曦 MXN 系列 GPU(曦思)产品概念图 


图7:沐曦 MXC 系列 GPU(曦云)产品概念图


12.3.4 天数智芯

天数智芯成立于 2015 年,首席科学家郑金山为原 AMD 首席工程师,首席技术官 Chien-Ping Lu 曾任三星全球副总裁。2022 年 7 月,公司完成超 10 亿元人民币的 C+轮及 C++轮融资。天数智芯的 Big Island 云端 GPGPU 是一款具有自主知识产权、自研 IP 架构的 7nm 通用云端训练芯片,这款芯片达到 295TOPSINT8 算力。

图8:MI100、英伟达 A100、Big Island 对比


12.3.5 壁仞科技

壁仞科技成立于 2019 年,创始人张文曾任商汤科技总裁,CTO 洪洲曾任职于海思的 GPU 自研团队,软件生态环境主要负责人焦国方曾创建高通公司骁龙GPU 团队、领导了 5 代 Adreno GPU 架构开发。2021 年 3 月,公司完成 B 轮融资,累计融资金额超 47 亿元。2022 年 8 月,壁仞科技发布首款 GPGPU 芯片BR100,BR100 芯片采用 chiplet 技术,其 16 位浮点算力达到 1000T 以上、8 位定点算力达到 2000T 以上。

图9:BR100 的封装工艺


12.3.6 燧原科技



图11:昆仑芯 R200 对比业内主流 GPU




搜索
© 北京聚端科技有限公司 - 专业定制软件开发公司
京ICP备13028563号