越来越多企业“相中”AI能力,AI芯片需求强劲增长

越来越多企业“相中”AI能力,AI芯片需求强劲增长

  • 2024-03-28
  •  1247

关键词: 人工智能 半导体 晶圆

Omdia的最新研究表明,经过最近几个季度的战略库存调整,预计到2024年,全球半导体供应链将达到约6000亿美元。令人鼓舞的是,随着企业越来越多地利用生成式人工智能(AI)的能力,推动整个供应链的新需求以至半导体行业的发展。

纯晶圆代工行业,是半导体供应链不可分割的一部分,呼应了半导体供应链的基本基调。Omdia预测,由于需求逐渐恢复以及越来越多的应用端芯片的去库存完成,纯晶圆代工行业将在2024年增长约16%。

值得注意的是,主要科技公司和企业,对生成式AI技术的最新进展产生了浓厚兴趣,对人工智能芯片的需求因而增加。Omdia的研究,将探讨除GPU主导地位之外的AI加速技术未来格局的关键问题,并在即将举行的2024 Omdia台湾科技产业研讨会上,阐明AI领域当前和未来的竞争动态。



Omdia半导体研究高级分析师溫璟如(Claire Wen)评论道:“NVIDIA目前在AI加速器市场占据主导地位,尤其是在云端和数据中心部署方面。同时,像谷歌、亚马逊和微软这样的主要超大规模云服务提供商,正在开发自己的AI应用专用集成电路(ASIC),以提高针对其独特的AI工作负载量身定制的成本效率和性能。此外,支持离线AI应用程序执行的紧凑型人工智能模型的问世,边缘人工智能的采用率显著提高,尤其是在人工智能电脑和智能手机中。高通利用其在智能手机领域AI功能方面的丰富经验,在AI电脑市场取得显著进步。”


HBM需求将增长10倍

韩国存储巨头SK海力士的首席执行官Kwak Noh-Jung周三表示,预计到2024年,用于人工智能(AI)芯片组的高带宽内存(HBM)芯片在其DRAM芯片销售中的比例将从2023年的个位数上升到两位数。高盛也看好HBM市场,认为HBM市场供不应求的情况未来几年将持续,并预计市场规模将从2022年到2026年前增长10倍。

据了解,HBM存储系统自2023年以来因AI芯片需求而呈现爆炸式增长。SK海力士和美光(MU.US)一样,均已成为英伟达(NVDA.US)新款AI GPU的HBM存储系统供应商,提供的产品均为最新款的“HBM3E”。

高盛日前发布研报称,由于更强的生成式人工智能(Gen AI)需求推动了更高的AI服务器出货量和每个GPU中更高的HBM密度,该行大幅提高了HBM总市场规模预估,现在预计市场规模将从2022年到2026年前增长10倍(4年复合年增长率77%),从2022年的23亿美元增长至2026年的230亿美元。

高盛认为,HBM市场供不应求的情况未来几年将持续,SK海力士、三星和美光等主要玩家将持续受益。与同行的解决方案相比,海力士生产力和产量更佳。高盛预计,海力士在未来2-3年将保持其50%以上的市场份额。



终端市场格局分析

除了云端市场外,我们预计人工智能对于终端市场也有更强的需求,这也将推动人工智能成为终端计算芯片中越来越重要的差异化元素。

在手机端,人工智能的使用频率将会进一步增强,这也会推动芯片加入更多相应的算力,并且将人工智能支持作为SoC的核心亮点。例如高通发布的Snapdragon 8 Gen 3就以“低于一秒的延迟实现图像生成任务”作为一个重要卖点,估计这样的人工智能能力将会深度集成到手机厂商的操作系统中。除了高通这样的第三方芯片公司之外,自研手机芯片的系统厂商预计也会继续加码人工智能;苹果虽然在这方面保持低调,但是预计在未来会以各种方式(加大NPU算力,或者是加大软件支持)的方法来开始赋能更多人工智能在iPhone上的新拍摄用户体验。vivo在自研ISP芯片领域已经有了数年积累,而目前生成式人工智能对于拍摄体验的提升恰好和ISP有很强的协同作用,这也是2023年8月vivo发布的v3 ISP芯片强调了生成式人工智能作为一个核心亮点。未来,预计会看到越来越多这样的芯片强调人工智能对于用户体验上的赋能作用。

在智能汽车领域,Nvidia虽然不如在云端强势,但是其Orin系列芯片仍然是各大车厂考虑的标准芯片模组。我们认为,随着人工智能大模型对于智能驾驶的赋能作用逐渐加强,无论是第三方芯片还是车厂自研的芯片都将会进一步强化对于人工智能算力的投入,同时也推动芯片性能的快速提升——最近,无论是蔚来发布新自研芯片的算力规格,还是特斯拉传出将使用TSMC 3nm作为下一代芯片的生产工艺,都在提示着我们2024年人工智能将在智能车芯片领域扮演越来越重要的角色。


推理芯片成新战场

AI芯片大致可分为训练芯片和推理芯片两大类。训练芯片主要用于深度学习模型的训练过程,对算力要求极高,因此追求尽可能强大的并行运算能力。而推理芯片则是将训练好的AI模型部署到实际应用中,完成预测和决策任务。相比之下,推理芯片对算力的需求较小,但对功耗、时延等实时性要求更高。

传统的CPU和GPU芯片在推理运算方面存在着明显的能效比不足等缺陷,很难完全满足推理对实时性的苛刻要求。这直接限制了AI技术在智能手机、无人驾驶汽车等终端设备和边缘应用中的落地。因此,专门的AI推理芯片应运而生,被认为是释放边缘智能潜能的关键所在。

借助人工智能的东风,推理芯片市场前景极为广阔,成为了各路企业新的必争之地。无论是传统IT巨头,还是新兴AI芯片创业公司,都在加大力度布局推理芯片赛道。

一方面,英特尔、英伟达、谷歌等科技巨头凭借资金、技术和生态优势,已经陆续推出多款专门的AI推理芯片产品。如英伟达的Jetson系列、谷歌的TPU推理加速器等,针对不同场景提供高性能的边缘AI计算解决方案。



另一方面,一批新兴的AI芯片创业公司也站稳了脚跟。寒武纪推出的TerminatorIP产品则提出了一种Cloud-Edge一体化的计算架构,结合推理芯片和训练芯片,打造无缝连接的端云协同AI系统。地平线则设计了专用于视频分析的视觉AI芯片及算法,可广泛应用于安防监控、智能驾驶等领域。

展望未来,推理芯片市场潜力巨大,预计在可预见的几年内将保持高速增长态势。这主要得益于人工智能算力需求的持续增长和推理芯片自身先天优势的释放。

一方面,随着AI技术的深入应用,人工智能算力需求正在爆发式增长。据第三方研究机构预测,到2025年,全球AI算力需求将比2022年增长7倍以上。面对如此庞大的算力缺口,单纯依赖云端训练模型已不够,推理芯片将成为释放算力潜能的关键所在。

另一方面,作为专门设计用于边缘推理任务的芯片,推理芯片具有低功耗、实时响应等优势。随着5G、边缘计算等技术发展,越来越多智能设备和应用将迁移至边缘侧,对推理芯片的需求也将与日俱增。

在这一背景下,云~边缘一体化的AI计算架构正在成为行业趋势。企业期望通过训练芯片和推理芯片的协同,实现在云端和终端设备上无缝衔接的AI服务交付。未来,更多创新的计算架构和芯片方案有望出现。

来源:贤集网