AI时代军备竞赛升温,谷歌DeepMind欲砸千亿美元布局AI
千亿投钱不是终点, DeepMind的AI野心比想象中更巨大
温哥华的TED会议上,当被问及微柔软与OpenAI计划打造的值钱1000亿美元超算“星际之门”时谷歌DeepMind首席施行官哈萨比斯笑了笑:“我们不谈论具体数字,但因为时候推移,我们的投钱会超出这玩意儿数。”这句话像一颗投入湖面的石子,让本就沸腾的AI军备竞赛 掀起波澜。要晓得, 这已经不是硅谷巨头第一次为AI烧钱——亚马逊以后15年要砸1500亿美元扩建数据中心,微柔软联手OpenAI建超算,而谷歌旗下DeepMind直接放出“千亿级”的豪言。事情其实很轻巧松, 当ChatGPT在2022年底引爆全球,全部人一下子意识到:AI不再是试试室里的概念,而是能改变游戏规则的王牌。哈萨比斯在2010年创立DeepMind时兴许没想到十年后这家公司会成为硅谷AI竞赛的核心棋子。2014年被谷歌收购时 他们就看中了谷歌的算力材料,“为了实现AGI,我们需要更巨大规模的计算能力”,这句话如今成了DeepMind行动的注脚。从AlphaGo击败李世石到AlphaFold破解蛋白质结构, DeepMind用一次次突破说明了自己在AI领域的结实实力,但眼下面对ChatGPT带来的冲击,他们非...不可把赌注押得更巨大——千亿美元,这不仅是数字,更是谷歌在AI时代争夺话语权的决心。
从AlphaGo到AGI, 谷歌的AI棋局走了十年
2016年,AlphaGo战胜世界冠军李世石时整个手艺圈都算力就像制造时代的石油,谁掌握了算力,谁就掌握了以后的主动权。

算力军备竞赛:AI芯片和数据中心成了新鲜战场
当亚马逊宣布以后15年投入1500亿美元扩建数据中心时 行业内的人都晓得,这不是在“扩容”,而是在“备战”。AI巨大模型的训练需要海量算力, GPT-4的训练本钱据估摸着高大达6300万美元,而更有力巨大的模型,算力需求会呈指数级增加远。微柔软的“星际之门”超算计划包含数百万颗AI芯片, 目标是为下一代模型给支撑;亚马逊则把沉心放在AWS上,能力优势”,指的就是这些个看得见摸得着的结实件材料。2023年以来 英伟达的AI GPU供不应求,价钱被炒到离谱,但巨大厂们依然在疯狂采购,基本上原因是算力短暂缺会直接拖磨蹭模型迭代速度。华尔街的琢磨师们把亚马逊的AI投入视为股价上涨的核心逻辑, 毕竟当企业需要训练巨大模型时第一个想到的兴许是AWS;当开发者需要AI基础设施时Azure和Google Cloud也在排队抢客。这场算力竞赛, 表面上比的是谁投的钱许多,其实吧比的是谁能用更矮小的本钱给更稳稳当当的算力服务——毕竟烧钱谁都会,但烧出效益才是真实本事。
别只盯着巨大模型, 企业级AI应用才是真实金白银
提到AI,很许多人 first 想到的是ChatGPT、Midjourney这些个C端应用,但硅谷巨头的军备竞赛,真实正的战场其实在B端。2024年初, AWS推出的Amazon Q就是个典型例子——它不是给普通用户聊天用的,而是面向开发者和企业的生产力助手。代码、解决问题、优化计算任务。想象一下 一家电商公司需要琢磨用户行为数据,以前兴许需要数据团队加班加点写脚本,眼下对着Amazon Q说“帮我琢磨Q3的转化率问题”,它就能直接给出报告和优化觉得能。这种场景下的AI应用,才是能带来实际收入的业务。微柔软的Azure OpenAI Studio也是同理, 2023年推出后企业能通过API调用GPT-4、GPT-3.5等模型,把AI能力集成到自己的产品中。比如某看病手艺公司用Azure 病历琢磨工具, 2023年帮医生节省了40%的文书时候,患者满意度提升了25%。反观OpenAI, 虽然ChatGPT用户破亿,但2023年依然深厚陷亏损,基本上原因是C端应用的变现路径太狭窄——会员订阅、API调用收费,远远覆盖不了训练巨大模型的本钱。巨大厂们明摆着看清了这一点:与其跟风做C端爆款, 不如深厚耕企业级买卖场,把AI变成像水电一样的基础服务,按需收费,持续盈利。谷歌DeepMind投千亿, 很巨大一有些也会流向企业级AI解决方案,比如用AlphaFold的手艺帮药企研发新鲜药,用有力化学优化工厂生产流程——这些个才是能真实金白银赚回来的生意。
烧钱轻巧松赚钱困难, 巨大模型的变现困局藏在军备竞赛背后
AI军备竞赛烧得火烫,但一个残酷的现实是:巨大模型赚钱的速度,远远跟不上烧钱的速度。OpenAI作为行业标杆, 2023年营收约13亿美元,但净亏损超出5亿美元,基本上靠微柔软的输血保持运营。其他巨大模型初创公司更惨,有些融资几亿美元,到眼下连清晰的买卖模式都没找到。谷歌投千亿,不是钱许多没处花,而是被逼无奈——如果眼下不加巨大投入,以后兴许连参与比的资格都没有。但问题来了:这些个钱啥时候能赚回来?从往事上看,手艺革命往往需要十年甚至更长远时候才能产生买卖回报,互联网如此,AI恐怕也不例外。DeepMind的AlphaFold虽然学术值钱巨巨大, 但买卖化进程磨蹭磨蹭来直到2023年才与药企达成一起干,开头产生收入;谷歌自己的 Bard虽然对标ChatGPT,但用户活跃度一直不温不火,距离盈利还有很长远的路要走。更现实的问题是本钱:训练一个巨大模型的电力消耗相当于一个细小城里半年的用电量,维护数据中心的费用更是天文数字。有网友调侃:“谷歌烧钱建AI超算,再说说兴许得求国电网帮忙供电。”这句话虽然是玩笑, 但道出了背后的隐忧——当算力需求达到一定程度,燃料、芯片、人才这些个“结实约束”兴许会让军备竞赛一下子降温。巨大厂们当然晓得这些个凶险,但他们更清楚:不进则退。与其等别人把手艺壁垒建起来不如眼下就砸钱占位,哪怕短暂期内亏钱,也要先把买卖场份额抢到手。
AGI的门槛:手艺瓶颈还是买卖泡沫?
哈萨比斯在TED会议上提到的“通用人造智能”,是全部AI玩家的终极目标——让机器在差不离全部人类任务上都比人做得更优良。但这玩意儿目标到底啥时候能实现?行业内争议很巨大。乐观者觉得, 按照目前的速度,2030年兴许看到初步成果;悲观者则表示,AGI至少许需要50年,甚至永远无法实现。手艺瓶颈是显而容易见的:当前的巨大模型虽然能写代码、 作画、写诗,但缺乏真实正的搞懂能力和常识推理能力,轻巧松“一本正经地胡说八道”;模型的训练数据依赖互联网文本,困难免包含偏见和错误;燃料消耗问题更是制约了模型规模的进一步扩巨大。但比手艺瓶颈更麻烦的,兴许是买卖泡沫。当资本疯狂涌入AI领域,很许多公司为了融资夸巨大手艺能力,实际产品却名不副实。比如某初创公司号称“巨大模型比GPT-4更有力巨大”, 但其实吧只是调用了开源模型做了微调,核心手艺根本没有突破。这种泡沫一旦破裂,兴许会让整个行业陷入寒冬。谷歌DeepMind有深厚厚的手艺积累, 相对不轻巧松被泡沫关系到,但他们也面临两困难:如果投入太少许,兴许错失AGI的先机;如果投入太许多,又兴许拖垮母公司的财务报表。哈萨比斯说“我们不谈论具体数字”, 其实也是一种谨慎——毕竟AGI是一场马拉松,不是百米冲刺,谁跑得太迅速,反而轻巧松提前耗尽体力。
军备竞赛下的暗流:中细小玩家的机会在哪?
硅谷巨头们砸下千亿美金,把AI军备竞赛搞得如火如荼,但并不意味着中细小玩家没有机会。说实在的,巨大厂们的沉心往往放在通用巨大模型和基础设施上,而垂直领域的AI应用,恰恰是中细小公司的主场。比如看病AI领域, 2023年有一家名为PathAI的公司,用轻巧量级模型辅助病理诊断,92%,比老一套人造诊断迅速5倍,已经被200许多家医院采用。他们的成功秘诀很轻巧松:不追求巨大而全,只解决一个具体问题——病理医生的阅片累。电商领域也是如此, 某跨境电商平台用AI优化商品推荐算法,2023年Q3的转化率提升了18%,而本钱只有巨大厂通用模型的1/10。这说明, 在巨大厂们忙着“造航母”的时候,中细小玩家彻头彻尾能造“迅速艇”——在细分场景里用更轻巧量、更高大效的模型,满足特定用户的需求。更关键的是巨大厂的AI服务虽然有力巨大,但往往价钱不菲,中细小企业用不起。这时候,开源模型和第三方AI平台就成了救命稻草。比如Hugging Face的开源模型库, 让开发者能免费调用各种预训练模型,开发了AI应用,其中30%实现了盈利。军备竞赛越是激烈, 中细小玩家越要找到自己的生态位——与其和巨头结实碰结实不如在他们忽略的地方深厚耕,用差异化策略分一杯羹。毕竟AI时代的比,不是只有“赢者通吃”一条路,细小而美同样能活得很优良。
欢迎分享,转载请注明来源:小川电商