谷歌吹嘘自研芯片TPU4组成的超算是英伟达A100超算性能的1.7倍 – 蓝点网
谷歌日前公布了该公司用于训练人工智能模型 PaLM 的谷歌超级计算机的更多细节,谷歌称这个超级计算机比英伟达的吹嘘成的超算超算同类系统速度更快、功耗更低。自研U组
目前 AI 行业主要依靠英伟达的芯片性专用加速卡进行训练,典型代表是英伟 OPENAI 使用 20000~30000 张 NVIDIA A100 加速卡,早前英伟达还推出了最新加速卡 NVIDIA H100,达A的倍性能是蓝点 A100 的三倍。
谷歌虽然也使用英伟达的谷歌加速卡,不过谷歌自己也在研发芯片,吹嘘成的超算超算比如谷歌新超级计算机使用的自研U组就是谷歌自己研发的第四代张量处理单元 (TPU)。
TPU 主要用于谷歌的芯片性人工智能训练,谷歌称公司 90% 的英伟人工智能和机器学习训练都是基于 TPU 单元的,即通过模型提供数据的达A的倍过程,让这些处理单元在用于类似人类的蓝点文本响应查询和图像生成领域发挥作用。

谷歌最新的张量处理单元是第四代即 TPU4,谷歌自 2020 年开始将 TPU4 部署在数据中心组成超级计算机供内部使用。
谷歌本周发布了一篇新论文介绍 TPU4 及 TPU4 组成的超级计算机,谷歌工程师利用自己定制开发的光开关将 4000 多个 TPU4 连接在一起组成超算。
难点在于如何让这些处理单元组合起来提供高速运算,因为诸如 ChatGPT、Bard 这类模型数据量太大,靠单个芯片无法支撑。
相反,这些模型必须利用数量夸张的计算单元,然后将数据分布存储在上面,同时还要求每个计算单元能够协同工作数周甚至更长的时间,因此这是一个技术难点。
所以最终谷歌选择自己定制开发专用的光开关,这样 TPU4 超算可以轻松动态配置处理单元之间的连接,降低延迟、提高性能满足计算需求。
性能对比方面,谷歌在论文中表示对于同等大小的系统,TPU4 超算比 NVIDIA A100 超算快 1.7 倍、能效提高 1.9 倍,A100 上市时间与 TPU4 完成开发类似,所以可以对比,而最新发布的 H100 属于更先进的产品了,谷歌没对比。
那么标题中为什么要说谷歌 “吹嘘” 呢?我们倒不是怀疑谷歌的研发能力,主要是谷歌自研的这些芯片 (包括用于手机上的 AI 芯片) 都不对外出售的,也就是只有谷歌自己能使用。
所以即便性能提升多少对其他 AI 企业来说好像也没太大意义,不过谷歌也倒不是完全封锁,谷歌通过 Google Cloud 云计算服务对外出租 Cloud TPU 算力,所以 AI 企业要想使用 TPU 还必须使用 Google Cloud,妥妥的捆绑销售了,要知道云计算成本可比自己购买芯片后长期使用的成本高的多,所以对大型 AI 企业来说这并不划算。
另外谷歌暗示该公司还在开发新一代 TPU,毕竟 TPU4 都是 2020 年之前的事儿了,谷歌要研发第五代张量计算单元与 NVIDIA H100 竞争。
相关文章

育碧确认《星球大战:亡命之徒》拥有所有游戏中最高的市场推广预算
育碧确认《星球大战:亡命之徒》拥有所有游戏中最高的市场推广预算2024-07-22 09:45:59编辑:Reset 尽管2025-11-02
7月13日动静,小米河北颁布收表,河北小米之家第1000家店——小米之家郑州竟然之家中路广场店将于7月15日开业。据小米公司河北省分公司总经理王腾流露,河北也是齐国第一个小米之2025-11-02
百度初创人、董事少兼尾席履止民李彦宏正在法国巴黎“欧洲科技创新专览会”Viva Technology)上表示,本身是中国野生智能的耐暂信奉者,并流露百度正在十多年前便开端主动投2025-11-02
5月20日,有网友拍到那英正在录制《萌探》时被背佐扑倒正在天,跌倒后四周工做职员围上往拍摄。过了一会女,背佐把她扶起,那英拍拍裙子继绝往前走。网友批评:“跌倒了也没有扶一下借继绝拍?英子我2025-11-02
“你在想什么呢?”兔二姐问。“我想给爸爸买个蛋糕,为爸爸庆祝生日。”兔大姐说。“好念头!好念头!”兔小妹高兴的说。大姐、老二、老三十分困难凑起了一小把硬币。来到商店,兔大姐说,“我们要买个最好吃的蛋糕2025-11-02
《朝云暮雨》“开麦审判”特别视频 复杂角色引发热议 时长:03:00 来源:电影网 展开2025-11-02

最新评论