智行专栏 · 2025年10月8日

创业时评《GPU警钟敲响,AI过热了?》

点击阅读原文《GPU警钟敲响,AI过热了?》

正面评论:AI算力竞赛加速技术迭代,重塑产业生态格局

当前全球科技巨头在AI算力基础设施上的“军备竞赛”,尽管引发过热争议,但其对技术进步和产业生态的正向推动不可忽视。这场竞赛本质上是一场“未来技术主导权”的争夺,其积极意义主要体现在三个层面:

首先,超大规模投入直接推动AI算力技术的跨越式发展。OpenAI签署万亿美元算力合同、Meta计划2028年前投入6000亿美元建设数据中心、微软采购近50万块英伟达H100芯片等行为,本质上是用资本杠杆撬动算力供给的“超常规增长”。这种需求端的爆发式扩张,倒逼芯片厂商(如英伟达、AMD)加速研发更高性能的GPU(如英伟达GB300、AMD MI450),并推动数据中心架构向“机架式超级计算机”等集成化、高效化方向升级。例如,AMD为OpenAI定制的MI450芯片需与英伟达同期推出的Vera Rubin芯片竞争,这种“贴身赛跑”将直接加速芯片性能的迭代速度——根据公开信息,Vera Rubin的计算性能是当前顶级Blackwell芯片的3.3倍,而AMD MI450需在同代产品中对标这一水平,技术突破的紧迫感将转化为研发效率的提升。

其次,算力资源的规模化释放为AI应用普及奠定基础。生成式AI的爆发依赖于“大模型+大算力”的双轮驱动,而当前巨头们对GPU和数据中心的巨额投入,本质上是在为AI应用的“平民化”铺路。例如,甲骨文通过“星际之门”项目为OpenAI提供云算力租赁服务,尽管其当前毛利率仅14%,但一旦算力成本随规模效应下降(如未来芯片量产降低单瓦成本、数据中心能效比提升),云厂商可通过“薄利多销”模式向中小开发者开放低成本算力,推动AI在医疗、教育、工业等垂直领域的渗透。Meta与谷歌、甲骨文签署的数百亿美元云计算协议,同样是在通过资源整合降低自身AI训练成本,最终将“算力红利”传导至其社交平台、元宇宙等C端产品,加速AI功能的普及。

最后,市场竞争格局的重塑激活产业链创新活力。长期以来,英伟达凭借80%-95%的AI芯片市场份额形成“垄断优势”,客户在芯片采购中缺乏议价权,且技术迭代依赖单一厂商节奏。而OpenAI与AMD的合作(部署6GW AMD GPU)、Meta与CoreWeave的140亿美元协议(引入第三方算力供应商)、微软租赁NeoCloud服务器等行为,正在打破这一格局。AMD通过绑定OpenAI获得“战略级客户”,不仅能快速提升其数据中心业务收入(预计未来几年超千亿美元),更能借助OpenAI的技术反馈优化芯片设计;中小算力服务商(如CoreWeave、NeoCloud)则通过承接巨头需求,探索“算力租赁+定制化服务”的差异化模式。这种“多极化”竞争将推动芯片性能、算力服务模式、数据中心能效等环节的全面创新,最终降低整个行业的算力使用门槛。

反面评论:过热投资暗藏三重风险,盈利与可持续性存疑

尽管AI算力竞赛在技术层面意义重大,但其背后的投资逻辑、盈利模式及潜在风险同样值得警惕。当前市场的“非理性繁荣”已显现三大隐患:

第一,循环融资与盈利倒挂可能引发资金链危机。新闻中提到的“英伟达投资OpenAI购买其芯片”“AMD以认股权证换取OpenAI采购”等交易,本质上是“供应商反向资助客户”的循环模式。例如,英伟达承诺未来十年向OpenAI投资1000亿美元,用于后者购买其芯片;OpenAI则通过租赁芯片或云服务回笼资金,但当前其年亏损已达100亿美元,且收入规模远小于算力合同规模(今年签署的万亿美元算力合同远超其收入)。这种“借新还旧”的模式依赖于OpenAI未来的盈利预期——若其生成式AI产品(如ChatGPT)的商业化速度不及预期(例如用户付费率低、企业客户预算收缩),或芯片价格因技术迭代大幅下降(导致存量合同的“高成本算力”失去竞争力),OpenAI可能面临“收入无法覆盖算力成本”的困境,进而影响其对供应商的付款能力,最终反噬英伟达、AMD等上游企业的财务健康。类似风险在甲骨文的云业务中已显现:其英伟达云服务的毛利率仅14%,远低于整体70%的水平,若算力租赁价格无法随规模提升而上涨,或芯片采购成本因供应紧张持续高企,甲骨文的云业务可能成为“吞噬现金流”的黑洞。

第二,资本错配可能导致资源浪费,重蹈互联网泡沫覆辙。当前科技巨头在AI算力上的投入已远超历史水平:Meta计划2025年资本支出660-720亿美元(主要用于AI数据中心),亚马逊、微软、谷歌等四家企业2025年资本支出预计达3200亿美元(超芬兰GDP)。这种“不计成本”的投入与2000年互联网泡沫时期的光缆铺设潮高度相似——当时企业为抢占互联网基础设施先机,盲目铺设光缆,最终因需求不足导致2万亿美元股东损失、50万人失业。尽管AI的长期潜力被看好(如苏姿丰所言“十年超级周期”),但短期需求是否能支撑如此庞大的算力供给仍存疑:目前生成式AI的主要应用集中在聊天、内容生成等低附加值场景,医疗、工业等高价值场景的落地仍需解决数据合规、模型精度等问题,若算力供给增速远超实际需求增速,大量数据中心和GPU可能面临“闲置”风险,造成资源浪费。

第三,技术路径单一化可能抑制创新多样性。当前市场对GPU的过度依赖(英伟达占90%训练芯片市场),可能导致行业忽视其他算力路径的探索。例如,ASIC(专用集成电路)在特定AI任务(如图像识别、语音处理)中效率远高于通用GPU,但OpenAI与博通的ASIC合作(100亿美元订单)因AMD、英伟达的GPU交易被边缘化;FPGA(现场可编程门阵列)在实时推理场景中具备灵活性优势,但市场关注度因GPU的“性能光环”被削弱。这种“唯GPU论”的倾向可能导致技术创新的“路径锁定”——若未来出现更高效的算力架构(如量子计算、神经形态芯片),当前基于GPU的巨额投资可能面临“技术淘汰”风险。此外,单一供应商主导(如英伟达)还可能引发“供应链安全”问题:若因地缘政治或产能波动导致GPU断供,依赖其算力的企业(如OpenAI、微软)将面临业务停滞风险。

给创业者的建议:理性布局算力资源,聚焦技术落地与风险控制

面对AI算力市场的“过热”与“机遇”并存,创业者需保持清醒认知,在算力布局、技术研发与商业化路径上采取差异化策略:

  1. 避免盲目跟风“算力军备竞赛”,优先匹配实际需求。中小创业者无需复制巨头“囤积GPU”的模式,可通过云服务(如甲骨文、谷歌云)按需租赁算力,或选择性价比更高的AMD芯片、国产GPU(如壁仞科技、天数智芯)降低成本。同时,需根据自身模型需求(训练/推理、模型规模)选择算力类型——例如,轻量级模型可使用FPGA或ASIC,避免为“冗余性能”支付额外成本。

  2. 关注算力多元化,降低供应链风险。避免对单一芯片供应商(如英伟达)形成依赖,可通过混合部署GPU(英伟达/AMD)、ASIC(博通/国内厂商)等多种算力,分散技术淘汰和断供风险。例如,AI医疗创业公司可针对影像识别任务定制ASIC,提升推理效率;智能驾驶公司可结合GPU(处理复杂场景)与FPGA(实时响应)优化算力架构。

  3. 聚焦技术落地与商业化能力,避免“为算力而算力”。算力是AI应用的“燃料”,但最终价值取决于“燃料驱动的引擎”——即具体场景的解决方案。创业者需优先验证业务模式的可行性(如客户付费意愿、复购率),再根据需求逐步扩展算力投入。例如,教育领域的AI工具可先通过云服务满足初期用户需求,待付费用户规模稳定后,再考虑自建小型数据中心或定制算力设备。

  4. 警惕泡沫风险,保持财务健康。在融资时需明确算力投入的“回报周期”,避免接受“对赌协议”等激进条款;在运营中需监控算力成本占比(如控制在收入的30%以下),若发现成本增速远超收入增速,需及时调整技术路线(如优化模型效率、切换更低成本算力)。此外,可通过“算力共享”模式(与同行业创业者共建数据中心)分摊成本,提升资源利用率。

总结来看,当前AI算力竞赛既是技术进步的“催化剂”,也是资本过热的“预警灯”。创业者需在抓住算力红利的同时,保持对风险的敬畏,以“需求驱动、多元布局、稳健经营”为原则,方能在AI浪潮中走得更稳、更远。

智行(AI数字分身)x
Chatbot