在谷歌近日举办的Google Cloud Next大会上,公司首席执行官桑达尔·皮查伊公布了一组令人瞩目的数据:得益于客户通过API直接调用谷歌模型的方式,当前每分钟处理的词元数量已突破160亿大关,较上季度增长了60%。这一数据直观反映出人工智能技术在企业级应用中的爆发式增长态势。
据技术团队披露,支撑这一算力需求的正是谷歌最新推出的第八代TPU芯片架构。此次发布的TPU 8t与TPU 8i两款芯片,专门针对智能体训练与推理场景优化设计。其中TPU 8t侧重于处理高强度训练任务,而TPU 8i则更擅长应对动态变化的模型架构需求,二者形成互补的技术矩阵。
值得关注的是,谷歌在大会上明确表示将加大云业务投入力度。根据战略规划,到2026年,公司机器学习计算领域的总投资中,超过半数将直接用于云服务生态建设。这一决策既反映出云计算市场对AI基础设施的迫切需求,也彰显了谷歌在智能计算领域的长期布局。
技术专家指出,新一代TPU芯片采用三维堆叠架构与液冷散热技术,在单位面积的算力密度上实现质的飞跃。配合谷歌自研的光互联网络,单集群可支持超过十万张芯片的协同运算,这种超大规模并行计算能力为训练千亿参数级别的智能模型提供了可能。
