科技企业欲虎口夺食,纷纷放出AI大招

科技企业欲虎口夺食,纷纷放出AI大招

  • 2024-05-15
  •  1496

关键词: 人工智能 芯片 微软

作为引领新一轮科技革命和产业变革的战略性技术,人工智能AI已经成为新型工业化发展的重要推动力之一。在ChatGPT热潮推动下,当前,AI人工智能及其应用在全球迅速普及。从产业格局来看,目前英伟达在AI芯片市场几乎掌握着绝对的话语权。

而与此同时,为加速占领风口,以谷歌、微软、苹果等为代表的各大科技厂商都积极下场竞赛。其中,Meta、谷歌、英特尔、苹果推出了最新的AI芯片,希望降低对英伟达等公司的依赖,而微软、三星等厂商在AI方面的投资计划及进展亦相继传出。



微软:逾110亿美元投资计划公布

微软方面,近日,据多家外媒报道,微软正在研发一款名为MAI-1的最新AI大模型。其规模远超出微软此前推出的一些开源模型,在性能上或能与谷歌的Gemini 1.5、Anthropic的Claude 3和OpenAI的GPT-4等知名大模型相匹敌。报道称,微软或将在即将举办的Build开发者大会上演示。

事实上,为应对日益增长的AI计算需求,微软于近期宣布,将在威斯康星州投资数十亿美元用于建设人工智能(AI)基础设施。微软表示,新的投资将为威斯康星州创造2300个建筑工作岗位,在设施建成之后,最终将创造多达2000个数据中心工作岗位。

此外,微软还将在威斯康星大学密尔沃基分校投资了一个新的AI实验室,以培训工人使用AI技术。

据悉,微软此次宣布的在美投资计划涉及金额达33亿美元,加上此前宣布的日本、印度尼西亚、以及马来西亚、泰国等地的投资计划,微软近期在人工智能相关领域宣布的投资金额已经超过110亿美元。

根据微软上周宣布的多项投资计划,其未来两年内投资29亿美元,用于提升其在日本的云计算和人工智能基础设施;未来四年内投资17亿美元,用于在印度尼西亚扩展云服务和人工智能,包括建设数据中心;未来4年中,投资22亿美元于马来西亚的云计算和人工智能等领域;投资10亿美元在泰国建立首个数据中心,致力于为超过10万人提供人工智能技能培训。


苹果:为数据中心自研AI芯片?

另一大科技巨头苹果公司亦推出了其首款AI芯片M4,据苹果表示,M4芯片中的神经引擎是苹果迄今为止功能最强大的神经引擎,比当今任何AI PC中的任何神经处理单元都更强大,苹果进一步强调,今年将在生成式AI领域“开辟新天地”,为用户带来变革性的机遇。

而根据《华尔街日报》的报道,苹果一直在研发自己的芯片,用于在数据中心服务器上运行人工智能软件。据知情人士透露,服务器芯片项目的内部代号为ACDC(Apple Chips in Data Center,数据中心苹果芯片)。报道称,ACDC项目已经进行了好几年,但目前还不确定这款新芯片最终会不会投入使用,以及何时会推出。

知名科技记者马克·古尔曼的消息也显示,苹果公司今年将通过自研芯片在云端推出AI功能。根据古尔曼的说法,苹果将在云计算服务器中部署高端芯片(类似于它为Mac设计的芯片),用于处理苹果设备上最先进的AI任务,至于那些更简单的AI相关功能将直接由iPhone、iPad和Mac内置的芯片来处理。



三星:AI推理芯片Mach-1或即将试产

据韩国媒体ZDNet Korea援引业内人士的消息指出,三星电子的AI推理芯片Mach-1即将以MPW(多项目晶圆)的方式进行原型试产,有望基于三星自家的4nm工艺。

此前,三星电子曾在股东大会上透露,将会在2025年初推出自家人工智能加速器芯片Mach-1。作为三星电子发展AI战略的重要一步,Mach-1芯片是一款基于特定应用集成电路(ASIC)的人工智能推理加速器,并配备了LPDDR内存,使其特别适合边缘计算应用。

三星电子DS(半导体)部门负责人庆桂显曾表示,该芯片的开发目标是通过算法将片外内存同计算芯片间的数据瓶颈降至1/8,同时能效也提高八倍。庆桂显指出,Mach-1芯片设计已通过现场可程式设计门阵列(FPGA)技术验证,正进行系统芯片(SoC)的物理定型阶段,预计将在年底前准备就绪,2025年初推出由Mach-1芯片驱动的人工智能系统。

除了开发AI芯片Mach-1外,三星电子还在美国硅谷建立专从事通用人工智能(AGI)研究实验室,目标是开发能满足未来AGI系统处理要求的新型处理器和内存技术。


以推理为突破口 英特尔能否分一杯羹?

在“Intel Vison”大会上,英特尔重磅发布了新一代AI芯片Gaudi3,较英伟达H100芯片在推理性能、硬件性能、I/O性能上均有提升,CEO帕特·基辛格更是宣称与英伟达H200性能相当。

首先,Gaudi3推理能力平均提高50%,运行AI模型的速度则达到1.5倍。其次,Gaudi 3采用了台积电5nm工艺,张量核心数量增加,性能在部分大模型上超越H100。此外,提高了端口速率和端口数量,增强整体数据传输能力。

去年年底,英特尔CEO帕特·基辛格曾炮轰英伟达的CUDA生态,称其“既窄又浅”,并声称对于AI而言推理技术比训练更加重要。尽管H100已经问世2年,但如果Gaudi3成功在推理方面大幅击败H100,这对英特尔而言将是一个巨大的胜利。

然而Gaudi3真的能够比肩H100吗?当下是无法持一个明确的肯定态度。

这主要是由于,英伟达并没有止步H100。今年三月,英伟达基于BlackWell GPU(图形处理器)架构发布的B100,性能再次获得大幅提升,连马斯克都不禁感慨,“目前没有什么比英伟达GPU更好的AI芯片了。”

如果将英伟达最新款B100和英特尔Gaudi3进行对比,两者差距一目了然。

从硬件方面来看,英伟达B100采用3nm(纳米)工艺,而英特尔Gaudi3采用的是5nm工艺打造。一般而言,3nm工艺较5nm工艺芯片,集成晶体管密度更多、性能可能是后者芯片的两倍、功耗同时降低20-30%。

目前,台积电3nm晶圆量产代表了最先进的芯片集成技术,B100在芯片工艺上的选择,就已经“秒灭”Gaudi3。当然,3nm工艺芯片制造成本较高,很可能会限制B100的客户规模,仅有需要极高性能计算和AI处理能力的客户,才能负担B100的费用。预计在价格方面,Gaudi3有一定优势。

在HBM(高带宽内存)选择上,搭载128GB内存的Gaudi3没有采用最新的HBM3,而是采用了稍微有些过时的HBM2e。与HBM2e相比,HBM3不仅传输带宽更高,单颗容量也从16GB扩大至24GB,甚至32GB。

I/O(输入/输出)方面,英特尔使用以太网路线,端口速率从100GB/S提高至200GB/S,每个芯片拥有24个以太网端口,结合与英伟达BlackWell类似的双芯片设计,每张Gaudi3的以太网I/O总带宽高达8.4TB/S。

总体而言,Gaudi3的此次升级不仅算不上激进,甚至稍显保守,尽管在部分大模型上超越了H100,但仍然很难与英伟达最新的B100相抗衡。英伟达的技术与生态领先优势、高昂的芯片成本、以及快速增长的AI芯片市场等诸多因素,都注定了英特尔的赶超之路任重道远。


芯片只租不卖 谷歌和平“去英伟达化”

在Next大会上,谷歌公布了其自研的首款基于Arm架构的CPU芯片Axion,相较于GPU它具备算力优势,能更高效地处理大量数据集,专为数据中心AI应用设计,旨在应对从广告到大数据分析的多项任务。

具体而言,Axion芯片将广泛适用于各类任务,尤其支持谷歌的搜索引擎和AI相关工作。谷歌强调,这款芯片在AI领域发挥着关键支持作用,通过高效处理海量数据并服务于数十亿用户,展现其强大实力。

下一步,谷歌计划逐步在基于Arm的云服务器用例中运用Axion,目前Datadog、Elastic、OpenX和Snap等多家公司已计划采用这款芯片。



Axion芯片是谷歌在芯片创新领域逾十年努力的延续,尤其在ChatGPT引发的AI竞赛背景下,谷歌进一步坚定执行自研芯片战略,以减少对外部供应商的依赖。

Axion AI芯片的推出,标志着谷歌开始逐渐“去英伟达化”,在减少对英伟达芯片依赖的同时,与传统合作伙伴英特尔展开竞争,并向微软和亚马逊发起挑战。不过,谷歌副总裁Amin Vahdat强调,此举旨在扩大市场而非单纯竞争。

也许出于这方面考量,Google的Axion AI芯片采取了只租不卖的业务模式,Alphabet(谷歌重组后的“伞形公司”)子公司的客户将能够在今年晚些时候通过 Google 的云业务访问 Axion,但无法直接购买。通过不直接向客户销售,Google 避免了与其长期合作伙伴,以及主导芯片制造商——英特尔与英伟达的直接竞争,试图通过这种模式,向行业内释放积极友好信号。


试图破局 Meta放了个大招

另一边,为了改变英伟达一家独大的局面,Meta也在寻求破局。

早在去年5月,Meta就已经推出首款自研 AI 芯片 MTIA(MTIA v1),采用的是台积电 7nm 制程,而最新芯片 MTIA v2 同样是交由台积电代工,制程工艺升级到了 5nm。此外,下一代 MTIA 配备更多处理核心,片内存储(on-chip memory)翻倍到了 256MB(MTIA v1 仅有 128MB),off-chip LPDDR5(第五代通信标准) 也提高到了 128GB(MTIA v1 为 64GB),主频也从 800MHz 上升到了 1.35GHz。

有意思的是,MITA v2的面积仅变大了13%,功耗却增加到上一代的3.6倍,即 90W(MTIA v1为25W)。相比之下,英伟达 H100 PCIe(高速串行计算机扩展总线标准)的最大功耗约在 350~500W 区间(SXM版高达700W),INT8(8位有符号整数)精度下稀疏算力为 3026TFLOPS(每秒浮点运算次数)。

根据Meta透露,目前MITA v2已经在16个数据中心区域投入使用。作为Meta在AI硬件领域的关键布局,MITAv2的性能提升将有效提升Meta社交软件的排名和推荐系统效率,并支持其在生成式AI领域的发展。

作为英伟达H100 GPU的重要客户,Meta预计今年底前将采购35万颗H100。与此同时,Meta正加速自研MTIA系列AI芯片,旨在减少对英伟达的依赖,降低采购成本。

随着AI技术的迅猛发展和市场竞争的加剧,在英伟达H200交付后,Meta面临重要抉择:是选择继续采购英伟达的产品以维持业务的稳定运行,还是选择自给自足,通过自主研发和技术创新来摆脱对外部供应商的依赖?

这一决策绝非易事。但从Meta近两年动作来看,Meta正加大研发投入以升级自有产品,逐步完成AI芯片的自主替代。


国产AI算力军备竞赛,第一梯队已现雏形

伴随多模态千亿、万亿参数大模型的爆发,全球AI玩家都加入了算力军备竞赛。英伟达、AMD、英特尔这些算力巨头自不必说。在软件巨头领域,不仅有亚马逊、微软、华为、百度、阿里、特斯拉等下游客户推动自研芯片,国内AI芯片也百花齐放,华为、摩尔线程、寒武纪、壁仞、天数智芯等也在各施奇招,争夺登上前往AI时代的一张新船票。

目前而言,国产AI芯片大体呈现了三个梯队的格局。以产品性能、量产规模、拥有集群能力且已有场景落地等要素来考量,华为、海光、寒武纪、摩尔线程等公司可归为国产AI芯片的头部梯队。目前国内只有华为和摩尔线程,可以实现国产化的千卡集群,其它厂商还在百卡阶段徘徊。而一些起步不久的初创类芯片厂商,由于还在验证或量产阶段,产品仍在打磨阶段。

来源:贤集网