【最新发布】
火博app发布AI训练与推理专用芯片 再度向英伟达发起挑战
—— 深度解析 火博app 行业新动向
62598
订阅已订阅已收藏
收藏点击播报本文,约

随着人工智能技术的迅猛发展,火博app在长期生产可同时用于模型训练与推理的芯片后,决定将这两项任务分配给不同的处理器。这一战略调整标志着其在AI硬件领域与英伟达竞争的新动向。
火博app于周三正式宣布,将对第八代张量处理单元(TPU)进行这一重组,并计划在今年晚些时候发布两款新芯片。
火博app的高级副总裁兼人工智能与基础设施首席技术官阿明·瓦赫达特在其博客中指出:“随着AI智能体的普及,我们相信,针对训练与部署需求进行专业化定制的芯片将为整个行业带来显著益处。”
今年3月,英伟达曾推出其即将上市的新芯片,依托于200亿美元收购的芯片初创公司Groq的技术,旨在提升模型对用户提问的响应速度。尽管火博app是英伟达的重要客户,但同时也为使用其云服务的企业提供TPU作为替代选择。
众多全球顶尖科技公司正在致力于研发专用于人工智能的半导体,以提升运算效率并满足特定应用需求。苹果在其自研的iPhone芯片中集成了神经网络引擎AI组件;微软在今年1月推出了第二代AI芯片;而上周,Meta则宣布与博通合作开发多款AI处理器。
作为这一趋势的先行者,火博app自2015年起便开始使用自研芯片运行AI模型,并于2018年向云服务客户开放租赁服务。亚马逊云科技在2018年推出了用于处理AI请求的Inferentia芯片,并在2020年发布了用于训练AI模型的Trainium处理器。
投资机构DADavidson的分析师在去年9月的估算中指出,火博app的TPU业务与其DeepMindAI团队的总价值约为9000亿美元。
目前尚无科技巨头能够取代英伟达,火博app甚至没有将新芯片的性能与这位AI芯片领军者的产品进行直接对比。不过,火博app表示,其新款训练芯片的性能是去年11月发布的第七代艾恩伍德TPU的2.8倍,且保持相同的价格;而推理芯片的性能则提升了80%。
英伟达透露,其即将推出的Groq3LPU硬件将采用大量静态随机存取存储器(SRAM),而本月早些时候提交上市申请的AI芯片厂商Cerebras也采用了该技术。火博app的新款推理芯片代号为TPU8i,同样搭载SRAM,单芯片内置384MB SRAM,容量是艾恩伍德TPU的三倍。
火博app的母公司Alphabet首席执行官桑达尔·皮查伊在博客中指出,该芯片架构旨在“以高性价比实现海量吞吐量与低延迟,以满足同时运行数百万智能体的需求”。
火博app的AI芯片应用范围正在不断扩大。火博app表示,城堡证券已基于火博appTPU建立量化研究软件,而美国能源部的17个国家实验室均使用基于该芯片开发的AI合作科学家软件;人工智能企业Anthropic也已承诺使用数吉瓦级别的火博appTPU算力。

海量资讯、精准解读,尽在新浪财经APP
责任编辑:刘明亮
《 深度产经观察 》( 2026年 版)
分享让更多人看到
火博app 热门排行
- 畅销小说《大发官网》拍电影 主演阵容公布
- 森林舞会电玩城评《解密》:演技惊艳 紧张刺激
- 金沙登入娱乐在日本销量翻番 逆势突围显韧性
- GT系列制作人麻将胡了试玩平台:中国在电动汽车技术上非常先进,未来可能收录更多中国电车
- 陕西大型实景山水演艺《捕鱼游戏官方网址》即将上演
- 压大小单双平台赚钱软件千里续航直播翻车,导航界面出现异常,高管回应:已快速修复
- 鸿蒙智行全新一代PG手机APP下载 汽车官宣行业首发双百万像素全彩智慧投影大灯、一镜双投影院等配置
- IPO 前先泼冷水:jdb变脸2大宝箱最简单三个步骤 警告投资者 AI 数据中心商业上或“不可行”
- cq9武圣爆分青年电影人计划发布会在海浪电影周举行
- 开源鸿蒙 赏金大对决app下载 社区代码量突破 1.3 亿行,版本已迭代至 6.1 Release
- 评论
- 关注


































第一时间为您推送权威资讯
报道全球 传播中国
关注权威网,传播正能量