大模型市场,不止带火HBM

  • A+
所属分类:产业区块链

chatGPT账号

原文来源:半导体产业纵横

大模型市场,不止带火HBM

图片来源:由无界 AI‌ 生成

近日,HBM成为芯片行业的火热话题。据TrendForce预测,2023年高带宽内存(HBM)比特量预计将达到2.9亿GB,同比增长约60%,2024年预计将进一步增长30%。2008年被AMD提出的HBM内存概念,在2013年被SK海力士通过TSV技术得以实现,问世10年后HBM似乎真的来到了大规模商业化的时代。

HBM的概念的起飞与AIGC的火爆有直接关系。AI服务器对带宽提出了更高的要求,与 DDR SDRAM 相比,HBM 具有更高的带宽和更低的能耗。超高的带宽让HBM成为了高性能GPU的核心组件,HBM基本是AI服务器的标配。目前,HBM成本在AI服务器成本中占比排名第三,约占9%,单机平均售价高达18,000美元。

自从去年ChatGPT出现以来,大模型市场就开始了高速增长,国内市场方面,百度、阿里、科大讯飞、商汤、华为等科技巨头接连宣布将训练自己的AI大模型。TrendForce预测,2025年将有5个相当于ChatGPT的大型AIGC、25个Midjourney的中型AIGC产品、80个小型AIGC产品,即使是全球所需的最小计算能力资源也可能需要 145,600 至 233,700 个英伟达A100 GPU。这些都是HBM的潜在增长空间。

2023年开年以来,三星、SK海力士HBM订单就快速增加,HBM的价格也水涨船高,近期HBM3规格DRAM价格上涨了5倍。三星已收到AMD与英伟达的订单,以增加HBM供应。SK海力士已着手扩建HBM产线,目标将HBM产能翻倍。韩媒报道,三星计划投资约7.6亿美元扩产HBM,目标明年底之前将HBM产能提高一倍,公司已下达主要设备订单。

HBM在AIGC中的优势

直接地说,HBM将会让服务器的计算能力得到提升。由于短时间内处理大量数据,AI服务器对带宽提出了更高的要求。HBM的作用类似于数据的“中转站”,就是将使用的每一帧、每一幅图像等图像数据保存到帧缓存区中,等待GPU调用。与传统内存技术相比,HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸,能够让AI服务器在数据处理量和传输速率有大幅提升。

大模型市场,不止带火HBM

来源:rambus

可以看到HBM在带宽方面有着“碾压”级的优势。如果 HBM2E 在 1024 位宽接口上以 3.6Gbps 的速度运行,那么就可以得到每秒 3.7Tb 的带宽,这是 LPDDR5 或 DDR4 带宽的 18 倍以上。

除了带宽优势,HBM可以节省面积,进而在系统中安装更多GPU。HBM 内存由与 GPU 位于同一物理封装上的内存堆栈组成。

大模型市场,不止带火HBM

这样的架构意味着与传统的 GDDR5/6 内存设计相比,可节省大量功耗和面积,从而允许系统中安装更多 GPU。随着 HPC、AI 和数据分析数据集的规模不断增长,计算问题变得越来越复杂,GPU 内存容量和带宽也越来越大是一种必需品。H100 SXM5 GPU 通过支持 80 GB(五个堆栈)快速 HBM3 内存,提供超过 3 TB/秒的内存带宽,是 A100 内存带宽的 2 倍。

过去对于HBM来说,价格是一个限制因素。但现在大模型市场上正处于百家争鸣时期,对于布局大模型的巨头们来说时间就是金钱,因此“贵有贵的道理”的HBM成为了大模型巨头的新宠。随着高端GPU需求的逐步提升,HBM开始成为AI服务器的标配。

目前英伟达的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,单颗芯片HBM搭载容量再提升20%,达96GB。

AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高端MI300X则达192GB,提升了50%。

预期Google将于2023年下半年积极扩大与Broadcom合作开发AISC AI加速芯片TPU也计划搭载HBM存储器,以扩建AI基础设施。

存储厂商加速布局

这样的“钱景”让存储巨头们加速对HBM内存的布局。目前,全球前三大存储芯片制造商正将更多产能转移至生产HBM,但由于调整产能需要时间,很难迅速增加HBM产量,预计未来两年HBM供应仍将紧张。

HBM的市场主要还是被三大DRAM巨头把握。不过不同于DRAM市场被三星领先,SK海力士在HBM市场上发展的更好。如开头所说,SK海力士开发了第一个HBM产品。2023年4月,SK 海力士宣布开发出首个24GB HBM3 DRAM产品,该产品用TSV技术将12个比现有芯片薄40%的单品DRAM芯片垂直堆叠,实现了与16GB产品相同的高度。同时,SK海力士计划在2023年下半年准备具备8Gbps数据传输性能的HBM3E样品,并将于2024年投入量产。

国内半导体公司对HBM的布局大多围绕着封装及接口领域。

国芯科技目前正在研究规划合封多HBM内存的2.5D的芯片封装技术,积极推进Chiplet技术的研发和应用。

通富微电公司2.5D/3D生产线建成后,将实现国内在HBM高性能封装技术领域的突破。

佰维存储已推出高性能内存芯片和内存模组,将保持对HBM技术的持续关注。

澜起科技PCIe 5.0/CXL 2.0 Retimer芯片实现量产,该芯片是澜起科技PCIe 4.0 Retimer产品的关键升级,可为业界提供稳定可靠的高带宽、低延迟PCIe 5.0/ CXL 2.0互连解决方案。

HBM虽好但仍需冷静,HBM现在依旧处于相对早期的阶段,其未来还有很长的一段路要走。而可预见的是,随着越来越多的厂商在AI和机器学习等领域不断发力,内存产品设计的复杂性正在快速上升,并对带宽提出了更高的要求,不断上升的宽带需求将持续驱动HBM发展。

HBM火热反映了AIGC的带动能力。那么除了HBM和GPU,是否还有别的产品在这波新风潮中能够顺势发展?

谈谈其他被带火的芯片

FPGA的优势开始显现

FPGA(Field Programmable Gate Array,现场可编程门阵列)是一种集成电路,具有可编程的逻辑元件、存储器和互连资源。不同于ASIC(专用集成电路),FPGA具备灵活性、可定制性、并行处理能力、易于升级等优势。

通过编程,用户可以随时改变FPGA的应用场景,FPGA可以模拟CPU、GPU等硬件的各种并行运算。因此,在业内也被称为“万能芯片”。

FPGA对底层模型频繁变化的人工智能推理需求很有意义。FPGA 的可编程性超过了 FPGA 使用的典型经济性。需要明确的是,FPGA 不会成为使用数千个 GPU 的大规模人工智能系统的有力竞争对手,但随着人工智能进一步渗透到电子领域,FPGA 的应用范围将会扩大。

FPGA相比GPU的优势在于更低的功耗和时延。GPU无法很好地利用片上内存,需要频繁读取片外的DRAM,因此功耗非常高。FPGA可以灵活运用片上存储,因此功耗远低于GPU。

6月27日,AMD宣布推出AMD Versal Premium VP1902自适应片上系统(SoC),是基于FPGA的自适应SoC。这是一款仿真级、基于小芯片的设备,能够简化日益复杂的半导体设计的验证。据悉,AMD VP1902将成为全球最大的FPGA,对比上一代产品(Xilinx VU19P),新的VP1902增加了Versal功能,并采用了小芯片设计,使FPGA的关键性能增加了一倍以上。

东兴证券研报认为,FPGA凭借其架构带来的时延和功耗优势,在AI推理中具有非常大的优势。浙商证券此前研报亦指出,除了GPU以外,CPU+FPGA的方案也能够满足AI庞大的算力需求。

不同于HBM被海外公司垄断,国内公司FPGA芯片已经有所积累。

安路科技主营业务为FPGA芯片和专用EDA软件的研发、设计和销售,产品已广泛应用于工业控制、网络通信、消费电子等领域。紫光国微子公司紫光同创是专业的FPGA公司,设计和销售通用FPGA芯片。紫光国微曾在业绩说明会上表示,公司的FPGA芯片可以用于AI领域。东土科技主要开展FPGA芯片的产业化工作,公司参股公司中科亿海微团队自主开发了支撑其FPGA产品应用开发的EDA软件。

国产替代新思路:存算一体+Chiplet

能否利用我们现在可用的工艺和技术来开发在性能上可以跟英伟达对标的 AI 芯片呢?一些“新思路”出现了,例如存算一体+Chiplet。

存算分离会导致算力瓶颈。AI技术的快速发展,使得算力需求呈爆炸式增长。在后摩尔时代,存储带宽制约了计算系统的有效带宽,系统算力增长步履维艰。例如,8块1080TI 从头训练BERT模型需99天。存算一体架构没有深度多层级存储的概念,所有的计算都放在存储器内实现,从而消除了因为存算异构带来的存储墙及相应的额外开销;存储墙的消除可大量减少数据搬运,不但提升了数据传输和处理速度,而且能效比得以数倍提升。

一方面,存算一体架构与传统架构处理器处理同等算力所需的功耗会降低;另一方面,存算一体的数据状态都是编译器可以感知的,因此编译效率很高,可以绕开传统架构的编译墙。

美国亚利桑那州立大学的学者于 2021 年发布了一种基于 Chiplet 的 IMC 架构基准测试仿真器 SIAM, 用于评估这种新型架构在 AI 大模型训练上的潜力。SIAM 集成了器件、电路、架构、片上网络 (NoC)、封装网络 (NoP) 和 DRAM 访问模型,以实现一种端到端的高性能计算系统。SIAM 在支持深度神经网络 (DNN) 方面具有可扩展性,可针对各种网络结构和配置进行定制。其研究团队通过使用 CIFAR-10、CIFAR-100 和 ImageNet 数据集对不同的先进 DNN 进行基准测试来展示 SIAM 的灵活性、可扩展性和仿真速度。据称,相对于英伟达 V100 和 T4 GPU, 通过 SIAM 获得的chiplet +IMC 架构显示 ResNet-50 在ImageNet 数据集上的能效分别提高了 130 和 72。

这意味着,存算一体 AI 芯片有希望借助Chiplet技术和 2.5D / 3D 堆叠封装技术实现异构集成,从而形成大型计算系统。存算一体 + Chiplet 组合似乎是一种可行的实现方式,据称亿铸科技正在这条路上探索,其第一代存算一体 AI 大算力商用芯片可实现单卡算力 500T 以上,功耗在 75W 以内。也许这将开启 AI 算力第二增长曲线的序幕。

结语

世界人工智能大会上,AMD CEO苏姿丰表示,未来十年一定会出现一个大型计算超级周期,因此,目前正是一个成为技术供应商的好时机,同时也是与一些将会利用这些技术开发不同应用的客户合作的好时机。

没有人想要一个只有一个主导者的行业。大模型市场能否让芯片行业拥有新的市场格局,能否让新玩家出现?

“大模型市场对芯片行业带来了新的市场格局和机会。通过推动AI芯片的发展、促进云计算和数据中心市场的增长以及引发竞争格局变化,大模型的兴起为芯片行业带来了新的发展方向。

需要注意的是,芯片行业是一个高度竞争和技术密集的行业。进入该行业需要庞大的资金和技术资源,以满足复杂的制造和研发要求。尽管大模型市场为新玩家提供了机会,但他们需要克服技术、资金和市场等方面的挑战,才能在竞争激烈的芯片行业中获得成功。”Chatgpt如是回应。

免责声明

免责声明:

本文不代表知点网立场,且不构成投资建议,请谨慎对待。用户由此造成的损失由用户自行承担,与知点网没有任何关系;

知点网不对网站所发布内容的准确性,真实性等任何方面做任何形式的承诺和保障;

网站内所有涉及到的区块链(衍生)项目,知点网对项目的真实性,准确性等任何方面均不做任何形式的承诺和保障;

网站内所有涉及到的区块链(衍生)项目,知点网不对其构成任何投资建议,用户由此造成的损失由用户自行承担,与知点网没有任何关系;

知点区块链研究院声明:知点区块链研究院内容由知点网发布,部分来源于互联网和行业分析师投稿收录,内容为知点区块链研究院加盟专职分析师独立观点,不代表知点网立场。

  • 我的微信
  • 这是我的微信扫一扫
  • weinxin
  • 我的电报
  • 这是我的电报扫一扫
  • weinxin
chatGPT账号
知点

发表评论

您必须登录才能发表评论!