首页 > 科技 > 正文
Qzone
微博
微信

谷歌发布第八代TPU:双芯分立专攻AI训练与推理,正面挑战英伟达

科技 极客网 2026-04-23 15:45

当地时间4月22日,谷歌正式对外发布第八代张量处理单元(TPU)。此次发布最大的突破的是,谷歌打破了此前TPU“一芯通吃”的设计传统,将AI模型训练与推理这两项核心任务,拆分为两颗独立的专用芯片,分别命名为TPU 8t(训练专用)与TPU 8i(推理专用)。两款芯片预计于今年晚些时候正式面向市场推出,这也成为谷歌在AI硬件领域正面挑战英伟达主导地位的重要举措。

canuto-imagine-1776883750.jpg

谷歌高级副总裁、AI与基础设施首席技术专家阿明·瓦赫达特在博客中解释了这一转变的原因,他表示,随着AI智能体的快速崛起,业界对芯片的需求呈现出明显分化,训练与服务场景对硬件的要求各有侧重,只有为这两类场景分别打造专用芯片,才能实现效率最大化,更好地满足行业需求。在此之前,谷歌自2015年开始自研AI芯片以来,所有TPU产品均采用单一芯片设计,同时承担训练与推理任务,2018年起,谷歌开始将自研TPU出租给云服务客户,逐步在AI芯片领域布局。

此次发布的两款专用芯片各有侧重,性能均实现大幅提升。其中,TPU 8t专注于AI模型的训练任务,在同价位下,其性能较去年11月发布的第七代Ironwood TPU提升了2.8倍,能够更好地适配超大模型的预训练与微调需求,兼顾算力密度与可扩展性;TPU 8i则聚焦于推理任务,性能较上一代提升80%,最突出的亮点是单芯片集成了384MB的静态随机存取存储器(SRAM),容量达到上一代的三倍,这一设计能够大幅降低长上下文场景与多智能体并发运行时的延迟。

谷歌母公司阿尔phabet的CEO皮查伊也在博客中强调,这款新架构的核心目标,是在保证成本效益的前提下,提供同时运行数百万AI智能体所需的高吞吐与低延迟能力。值得关注的是,英伟达即将推出的Groq 3 LPU芯片,同样主打大容量SRAM设计,这也意味着谷歌与英伟达在AI推理芯片的技术路线上,形成了直接对标。

谷歌的这一举措,也契合了当前全球头部科技公司自研AI芯片的行业趋势。如今,全球顶尖科技企业纷纷布局定制化半导体研发,目的是最大化AI运行效率,适配自身的专业化场景需求:亚马逊AWS早在2018年就推出了推理专用的Inferentia芯片,2020年又发布了训练专用的Trainium芯片,同样采用双芯分立路线;微软在今年1月发布了第二代Azure Maia AI芯片;Meta则在上周宣布与博通合作,推进多款AI处理器的研发;而苹果多年来一直在自研iPhone芯片中融入神经网络引擎,深耕终端AI硬件领域。

尽管目前英伟达在AI芯片市场仍占据主导地位,但谷歌并未选择直接对标单芯片性能,而是聚焦于云原生集群效率与整体拥有成本(TCO),依托自身Google Cloud生态,打造差异化竞争优势。从生态落地情况来看,谷歌新一代TPU已经获得了不少头部客户的认可,对冲基金巨头Citadel Securities基于TPU构建了量化研究系统,美国能源部的全部17个国家实验室都在使用基于TPU开发的AI科研助手,AI独角兽Anthropic更是承诺将使用数吉瓦级的谷歌TPU算力资源,这些都为谷歌TPU的市场推广奠定了基础。

分析认为,此次谷歌TPU从“一芯通吃”转向训练与推理双芯分立,不仅是谷歌自身AI硬件布局的重要升级,更标志着全球AI芯片行业正式进入分工专业化的新阶段。从实际情况看,训练芯片比拼的是规模与带宽,推理芯片比拼的则是延迟与片上存储。作为云厂商自研AI芯片的代表,谷歌此次推出的双芯组合,为全球AI基础设施提供了英伟达之外的重要替代方案,未来也将深刻影响大模型与AI智能体的部署成本和应用形态,推动整个AI产业的高效发展。

【以上内容转自“极客网”,不代表本网站观点。如需转载请取得极客网许可,如有侵权请联系删除。】

 

延伸阅读:

 

责任编辑: fjq4191

责任编辑: fjq4191
人家也是有底线的啦~
广告
Copyright © 2018 TOM.COM Corporation, All Rights Reserved 新飞网版权所有