Dogecoin狗狗币交易平台 - 狗狗币价格行情,实时走势图英伟达铁幕之后谷歌AI芯片已成气候
2025-11-18狗狗币,狗狗币走势,狗狗币怎么买,狗狗币在哪买,狗狗币价格,狗狗币挖矿,狗狗币官网,狗狗币交易平台,狗狗币钱包,狗狗币钱包下载,狗狗币最新消息,狗狗币注册,狗狗币开户,狗狗币下载网址,狗狗币APP【新智元导读】英伟达在聚光灯下狂飙,谷歌却在幕后悄悄造出自己的AI基建帝国系统。当别人还在抢GPU时,它早已自给自足、闭环生长——闷声干大事,从未如此谷歌。
这几天,谷歌终于把憋了很久的大招放出来了,CEO劈柴官宣了自研第七代TPU Ironwood正式商用。
对于Google Cloud客户,Ironwood根据工作负载需求提供两种尺寸:256芯片配置和9216芯片配置。
谷歌才是那个真正低调发财的公司,有人总结AI价值链上所有公司涉足的领域。
谷歌是唯一一家,没有之一,全栈人工智能公司:数据→算法→硬件→云服务器。
它使用自己的数据来训练自己的算法;这些算法在部署在自己的云上的自己的芯片上运行;然后开发了自己的应用程序。
如果说现在谷歌唯一的弱点,那可能就是「苹果」,准确的说,是客户端设备,手机。
虽然安卓系统是谷歌的,但是偏偏谷歌没有自己的手机(如果手机也有,谷歌称得上地球上最垄断的公司,也许没有之一。)
虽然Pixel系列出货量未能排在三星和国产等安卓机前面,但是用过Pixel的人都说好。
谷歌TPU,全称张量处理单元 (Tensor Processing UnitT), 从早期几代主要作为内部优化工具,到最新的迭代已构成一个成熟且极具竞争力的产品组合。
当英伟达在横向扩展(scale-out) 加速器市场占据主导地位时,谷歌已经构建了全球唯一一个专为训练和运行前沿模型而设计的、具有高容错性的超大规模系统。
公司意识到,神经网络日益增长的计算需求(尤其是在语音识别领域)可能迫使他们将数据中心的规模翻倍。
这一预测使AI计算不再是一个机遇,而是对运营支出 (OpEx) 的生存威胁。
尽管谷歌早在2006年就考虑过构建专用集成电路 (ASIC),但直到2013年,这才真正成为一项迫在眉睫的任务。
TPU v1 的开发周期之快是前所未有的:从设计、验证、制造到部署至数据中心仅用了15个月!
据报道,谷歌在构建芯片的同时才开始招聘团队,这表明该项目风险极高,但也具有最高优先级。
谷歌TPU v1是一款「仅限推理」的ASIC,专为TensorFlow框架设计。 (另一个深度学习框架就是Meta的PyTorch)
它与CPU和GPU的关键区别在于:TPU专为高吞吐量的低精度计算(如8位整数)而设计。
与CPU(通用处理器)和GPU(当时主要为图形渲染优化)不同,TPU彻底摒弃了非必需的硬件,如缓存、乱序执行和纹理映射单元。
该芯片的核心是一个庞大的矩阵乘法单元,拥有 65,536 个 (256x256) 8位MAC单元,峰值性能达到每秒92万亿次操作 (TOPS)。
v1 采用了28nm工艺,时钟频率为700MHz,而其热设计功耗 (TDP) 仅为40W,远低于同期的GPU。
它被设计为一块PCIe卡,可安装在SATA硬盘插槽中,以便快速集成到现有服务器。
2016年,DeepMind的AlphaGo击败世界围棋冠军李世石,这一历史性事件的背后正是TPU v1在提供算力支持。
在超大规模数据中心的环境中,成本不仅由芯片的采购成本 (CapEx) 决定,更由其运行的电力成本 (OpEx) 决定。
TPU v1 的胜利不仅在于速度,更在于它解决了AI计算的总体拥有成本 (TCO) 问题。
TPU v1 验证了ASIC的概念,但其「仅限推理」的特性意味着谷歌在模型训练方面仍依赖英伟达。
关键的架构转变是:从8位整数计算转向浮点计算,特别是引入并推广了由Google Brain发明的 bfloat16 (bf16) 格式。
bfloat16 是一个巧妙的工程妥协:它保留了与32位浮点数 (FP32) 相同的8位指数,但将尾数截短至7位。
这一设计在大幅降低内存占用和带宽需求的同时,保留了训练所需的动态范围,有效防止了梯度消失或爆炸。
TPU v2引入了Pod(集群)概念,但在此之前与之后,GPU长期以集群/超算形态扩展。
谷歌不再将TPU视为独立的加速器,而是设计了4芯片模块(180 TFLOPS)。
64个这样的模块被组装成一个256芯片的Pod,总性能达到11.5 PFLOPS 6。
芯片性能提升至123T-ops,HBM增加到32GB。更重要的是,Pod的规模扩大了4倍,达到1024个芯片,使每个Pod的性能增加了8倍。
为了应对急剧增加的功率密度,液冷技术被引入并成为TPU Pod的标准配置,这使谷歌能够进一步挑战性能极限。
到了第四代,TPU v4 (2021)可以和与A100并驾齐驱,实现规模化领先。
TPU v5 的发布标志着谷歌从单一架构转向成熟、多元化的产品线e(Efficiency)和TPU v5p(Performance),v5e针对主流推理、微调和中小型训练负载设计;TPU v5p是训练谷歌Gemini 1.0模型所使用的核心系统。
与TPU v4相比,TPU v5p的FLOPS提高了2倍以上,高带宽内存(HBM)提高了3倍。
TPU v5p专为性能、灵活性和规模而设计,可以训练大型LLM模型,速度比上一代TPU v4快2.8倍。
谷歌CEO劈柴明确表示:「TPU为Gemini 2.0的训练和推理提供了100%的动力」。
Ironwood是首款专为推理而设计的TPU,而Trillium则是训练冠军。
在战略和资本层面,这反映了一种钟摆策略。谷歌使用v6 (Trillium) 来构建前沿模型 (CapEx投入),现在发布v7 (Ironwood) 来规模化服务这些模型 (OpEx消耗)。
Ironwood 旨在优化推理的TCO。(毕竟我们人类已经进入AI推理时代)
Ironwood将在未来几周年内全面上市。市场对Ironwood的早期反响极为热烈。
用谷歌自己的话:构建和运维现代应用既需要高度专业化的加速器,也离不开强大高效的通用计算能力。
与当前同代基于x86架构的虚拟机相比,N4A可提供高达2倍的价格性能优势。
C4A裸金属实例(即将进入预览阶段)是谷歌首款基于Arm架构的裸金属实例,为专用工作负载提供专属物理服务器,适用于Android开发、汽车车载系统、严格许可要求的软件、规模化测试农场或运行复杂模拟等场景。
正如文章开头所说,谷歌是现在AI领域唯一一家全栈技术公司,数据、算法、模型、云服务、CPU、GPU,需要什么就自己造什么。
2025年10月,Anthropic宣布扩大合作,获得高达100万个TPU芯片的使用权。
该协议价值数百亿美元,并将在2026年提供超过1吉瓦 (Gigawatt)的计算容量。
虽然全球的聚光灯几乎都照在英伟达身上,但在聚光之外,谷歌的AI基础设施版图已经悄然成形,甚至形成了自己独立的「气候系统」。
当所有AI公司都在抢购H系列GPU时,谷歌早已在自己的TPU集群上完成了自我造血循环——训练、部署、推理、优化,全都在自己的系统内部完成。
它不仅是投资基金,更像是一个生态基金池,用以扶持所有基于谷歌云与TPU生态的AI公司。
Anthropic、Cohere、Character.AI、Essential AI……
这些名字在外界看来是独立的创业公司,但它们在算力与模型底座上,都深度绑定谷歌的TPU集群与Gemini模型家族。
换句话说,谷歌的AI基金并非简单的「投资人」,而是用资本作为粘合剂,将算力、云服务与生态绑定在一起。
在未来的几年中,当市场仍在讨论GPU的供需、算力的溢价、芯片的带宽时,谷歌的TPU与AI基金正以稳健的方式持续扩张。


