CPU诞生,让英特尔在PC时代长期独占鳌头;GPU崛起,让英伟达一跃而起风光无二。xPU时代正在到来,由谷歌TPU衍生而出的未来,谁又将乘势而起?
在全球科技产业将目光紧紧锁定人工智能领域之际,TPU(Tensor Processing Unit,张量处理器)正在悄悄成长为AI时代的“弄潮儿”。
GPU用于大模型训练、推理存在高能耗、高成本等问题,由AI算力需求增长带来的种种问题,或许可以从TPU身上找到更为理想的答案。
TPU“攻入”AI主流市场
由于入局早、算力强,由英伟达提供的GPU芯片几乎已成为各大企业训练、推理模型,处理AI相关算力需求的标配。但当前,TPU芯片也正在逐步进入AI算力主流芯片市场。
TPU由谷歌率先推出。从初代芯片推出至今,TPU的应用范围正逐步扩大,谷歌以外的市场也逐渐打开。
最初,TPU是谷歌专为加速机器学习和深度学习任务而设计的专用芯片,特别是针对深度学习模型的训练和推理。2013年,谷歌开始研发TPUv1,这是全球首款专为AI打造的加速器。2017年,谷歌推出Cloud TPU,用于处理云端计算任务。
自2022年底生成式人工智能获得产业界广泛关注以来,TPU在生成式人工智能领域的应用范围也逐步拓宽。例如,2023年12月,谷歌推出多模态通用大模型Gemini的三个不同版本,该模型的训练大量使用了Cloud TPU v5p芯片。
谷歌曾表示,TPU是其推出许多服务的最大功臣之一,要是少了它,如即时语音搜寻、相片物件辨识及互动式语言翻译等无法丝滑运行,还有最先进的Gemini、Gemma、Imagen模型等也无法顺利问世。
今年5月,谷歌又发布了第六代TPU芯片Trillium。据悉,Trillium能在单个高带宽、低延迟Pod中扩展为多达256个TPU的集群,相较于前代产品,Trillium在适配模型训练方面的功能更强。
同时,TPU芯片也逐渐走出谷歌公司,获得更大范围的市场青睐。一如,7月30日苹果公司发布的一篇研究论文称,苹果在训练Apple Intelligence生态中的人工智能模型AFM时,选择了谷歌的两种张量处理单元(TPU)云集群。
性价比优势成为“焦点”
在以英伟达产品为代表的GPU在算力基础设施市场“一骑绝尘”的情况下,TPU何以崭露头角,又何以赢得苹果等全球知名企业的青睐?
市场分析师表示,以GPU为代表的通用计算架构和针对特定领域的DSA(Domain Specific Architecture,面向特定领域)计算架构是目前两大主流AI芯片设计思路。但在市场容量巨大的应用领域,计算芯片的架构演进总呈现出从通用型向专用型转变的规律。
随着大模型训练的计算量和复杂度的指数级增长,传统GPU成本昂贵、算力利用率低、能耗大的局限日益凸显。
今年1月,扎克伯格发帖公布了一组数字:到2024年底,Meta“大规模的计算基础设施”将包括高达35万张英伟达H100显卡,为Meta在人工智能领域的突破提供强大支持。如果将其他GPU计算在内,Meta的计算基础设施将拥有“相当于近60万张H100的算力”。这将是一笔巨大的开销。
与此同时,马斯克表示,2024年特斯拉仅仅在英伟达的人工智能芯片上就将耗费超过5亿美元,特斯拉未来还需要价值“数十亿美元”的硬件才能赶上最大规模的竞争对手。
高昂的算力成本,使一众全球顶尖的科技企业望而生畏。在此背景下,作为AI专用芯片之一的TPU被业界期待能够从新的技术路线上另辟蹊径。在这方面,谷歌已经提供了成功经验。据谷歌副总裁兼工程院士Norm Jouppi透露,TPU的出现足足让谷歌省下了15 个数据中心的建设成本。
探索市场新可能
从产品逻辑来看,作为一种专用集成电路(ASIC),TPU专为单一特定目的而设计,用以运行构建AI模型所需的独特矩阵和基于矢量的数学运算。而GPU的设计初衷是处理图像信息。因此,从架构设计的角度来看,相比于适合处理高度并行任务的GPU, TPU更适用于处理矩阵乘法等神经网络算法。
“TPU具有为AI大模型而生的天然优势架构。”TPU架构AI芯片公司中昊芯英创始人兼CEO杨龚轶凡在接受《中国电子报》记者采访时表示,TPU专为神经网络结构而设计,在相同制造工艺、能耗和芯片尺寸条件下,性能优于GPU 3~5倍。在适用场景上,TPU为已有的算法和框架进行优化,性能和功耗表现均优于GPU,更适用于深度学习模型的大规模部署。深度学习无疑仍是AI领域的主导力量,深度学习的某个分支将承载着未来100%的AI应用。从长远来看,TPU比GPU在AI赛道上更具竞争力。
在TPU芯片领域,产业界正在进行不同的尝试。
一方面,“先行者”谷歌探索出了自己的专属路线。
咨询公司D2D Advisory首席执行官Jay Goldberg直言,今天只有两家公司有着成熟的芯片研发体系来训练人工智能模型,一个是英伟达的GPU,另一个是谷歌的TPU。但区别于英伟达,谷歌并不会以独立产品的形态单独出售自己的TPU芯片,而是通过谷歌云平台向外部客户提供基于TPU的算力服务。
另一方面,更多芯片从业者仍在探索基于TPU架构的新产品。
今年2月,美国AI芯片初创公司Groq凭借其开发的新型AI处理器LPU(Language Processing Unit)引发关注,使用的TSP(张量流处理器)源头是谷歌研发的TPU。今年4月,英特尔推出了专攻深度学习神经网络推理的类TPU芯片Gaudi 3。
值得关注的是,国内初创AI芯片企业中昊芯英历时近五年,已成功量产全自研的国内首枚TPU AI训练芯片,并自研AIGC预训练大模型,正在与行业伙伴进行金融、教育、医疗等垂直领域专业大模型的探索落地。业界普遍认为,TPU芯片在中国市场的应用,更有助于TPU这一产品门类的成熟。
当然,无论从技术还是生态角度,TPU和类TPU芯片都处于“婴儿期”,需要进一步发展。但是,AI时代已经到来,算力需求才露出冰山一角。在庞大需求下,新生事物更有施展拳脚的可能。