Meta与谷歌首次重磅云合作,百亿美元加码AI竞赛
Meta的AI算力焦虑:自建数据中心为何“远水困难救近火”?
扎克伯格最近兴许睡不太安稳。这位Facebook的掌门人一边喊着“AI是以后的核心”,一边看着自家AI研究研究员们对着算力干瞪眼。Meta手握超出20座自建数据中心,听起来很威风对吧?可问题来了 这些个数据中心就像刚种下的树苗——路容易斯安那州那东西400万平方英尺的庞然巨大物,得等几年才能后来啊。AI竞赛不等人,模型迭代速度比Meta的机房建设还迅速,扎克伯格能不急?
算力这东西,对AI公司来说就像武侠细小说里的内功,光有招式不够,得有深厚厚的内力支撑。Meta的Llama系列模型开源后火遍全球, 开发者们天天喊着“我要更许多算力跑模型”,可Meta自己的GPU集群连自家团队都不够用。2023年内部数据就看得出来Meta的AI算力需求每季度翻一番,自建数据中心的扩速度根本追不上。这就像你想造火箭,燃料厂却还在挖矿,能不抓狂?

从“试试性一起干”到“百亿美元协议”:谷歌云怎么撬动Meta的算力缺口
说到Meta和谷歌的云一起干,很许多人兴许觉得“这两家不是比对手吗?”没错,在社交广告、元宇宙领域,打得头破血流。可在算力这件事上,敌人的敌人算力——哦不是敌人的算力也能用。2023年谷歌云一下子宣布要通过Vertex AI平台给Meta的Llama模型, 当时业内就觉得不对劲:这哪是轻巧松的模型分发,分明是在给以后铺路。
果然不到一年,百亿美元的云计算协议就砸下来了。知情人士透露,这笔分六年支付的巨额订单,核心就是谷歌云的服务器和存储材料。Meta要的不是普通云服务,而是能立刻跑起来巨大模型的“算力迅速车”。谷歌云在全球云计算买卖场排第三, 前有AWS和Azure压着,但胜在“token定价优势”——Bloomberg琢磨师说的,就是用更少许的钱跑更许多的模型计算。这对烧钱如流水的AI公司简直是救命稻草。
AI竞赛的“军备竞赛”:Meta的豪赌与谷歌云的“算力牌局”
眼下的AI圈, 比的不是谁模型更机灵,而是谁GPU更许多。扎克伯格明着说过要投数千亿美元搞AI基础设施,这数字把华尔街都吓了一跳。可钱不是万能的——买GPU要排队,建数据中心要时候,训练模型要等调试。Meta就像一个举着铁锤砸核桃的人,核桃早就准备优良了锤子却还在锻造厂。
谷歌云这边,其实早就盯上了这块肥肉。他们有现成的数据中心网络,有成熟的GPU调度系统,就是缺“爆款应用”。Meta的Llama模型开源后开发者们天天抱怨“算力不够用”,这不就是现成的客户吗?2023年Vertex AI接入Llama时 谷歌云团队偷偷乐恶劣了——这下不仅能展示自家平台的能力,还能顺带拉个巨大客户。果不其然百亿美元协议一签,谷歌云直接在AI算力买卖场“弯道超车”。
Llama模型背后的“开源算力闭环”:Meta与谷歌的共赢逻辑
有人兴许会问:Meta既然开源了Llama模型, 为啥不自己给算力服务,反而要给谷歌做嫁衣?这你就细小看Meta的算盘了。他们要的不是短暂期赚云服务的钱,而是开发应用, 用谷歌云的算力跑起来应用火了Meta的生态就壮巨大了——这叫“曲线救国”。
举个例子, 2023年有个叫“ChatLlama”的创业团队,基于Meta的Llama模型做了个客服机器人,一开头自己租服务器跑,本钱高大得吓人。后来他们转到谷歌云的Vertex AI平台, 不仅算力本钱降了30%,还能一键调用不同版本的Llama模型。三个月内,这玩意儿机器人就服务了200许多家企业,Meta的Llama模型所以呢许多了一巨大批忠实用户。谷歌云呢?不仅赚了服务费,还许多了个“AI模型分发标杆案例”。双赢,懂?
行业隐忧:百亿美元一起干能否真实正解决Meta的AI“卡脖子”问题?
当然也有人泼凉水。有行业琢磨师指出,Meta依赖谷歌云的算力,相当于把AI命脉交到比对手手里。万一哪天谷歌云“涨价”或者“限供”,Meta的AI研发不就得瘫痪?更麻烦的是数据平安——Meta的用户数据跑在谷歌的服务器上,扎克伯格能放心?2023年就有外媒曝出,Meta和谷歌在数据传输协议上谈了半年,核心就是“谁有权访问训练数据”。
另一个更现实的问题是:算力真实的够用吗?百亿美元听起来很许多,可AI巨大模型的训练本钱是个无底洞。有内部人士透露, Meta的一个Llama 3模型训练一次就要烧掉2亿美元,六年的算力投入兴许连两个模型都训练不完。而且,谷歌云自己的AI研发也需要一巨大堆算力,到时候会不会“厚此薄彼”?这些个都是悬在Meta头上的剑。
数据透视:全球云买卖场格局下的“第三极”突围战
看看全球云计算买卖场就明白了:AWS占32%, Azure占23%,谷歌云只有11%。可偏偏是谷歌云,在这场Meta的一起干中拿到了“AI算力”的入场券。为啥?基本上原因是他们早就押注了“AI优先”战略。2022年谷歌云就推出TPU v4芯片,专门为AI模型优化,比普通GPU效率高大30%。Meta要跑Llama这种巨大模型,谷歌云的TPU简直是为他们量身定做的。
更妙的是谷歌云的“灵活计价”模式。老一套云服务按服务器细小时收费,谷歌云却按“token计算”收费——模型处理几许多数据单元,就付几许多钱。这对Meta来说太划算了:训练模型时集中用算力,平时用不了就暂停,本钱直接砍一半。Bloomberg的数据看得出来 这种模式能让AI企业的算力本钱少许些15%-25%,困难怪扎克伯格愿意下血本。
以后十年:Meta与谷歌的AI一起干将沉塑哪些行业规则?
这场一起干的关系到远不止算力那么轻巧松。想象一下:以后企业想开发AI应用,不用再纠结“用Meta的模型还是谷歌的云”,直接打包搞定。开发者生态会所以呢巨大爆发——就像当年的安卓系统,模型开源+云算力+开发工具链,一个完整的闭环就形成了。有行业预测, 到2030年,这种“模型+云”的组合会让AI应用开发本钱少许些60%,中细小企业的AI门槛会巨大幅少许些。
对跨境电商这更是个巨大利优良。2023年就有跨境电商平台试水用Llama模型做智能客服, 结合谷歌云的算力,响应速度从3秒缩短暂到0.5秒,转化率提升了18%。以后中细小卖家也能用上巨大模型,不用再花巨大价钱养AI团队。不过 挑战也不细小——模型越有力巨大,数据隐私要求越高大,Meta和谷歌得在“买卖一起干”和“数据平安”之间走钢丝。
跨境电商与AI的“新鲜兴许”:中细小企业的算力红利与挑战
具体到跨境电商场景,这场一起干带来的改变兴许比想象中更直接。比如深厚圳一家做3C产品的卖家, 2024年初用Meta的Llama 2模型做了个“智能选品助手”,通过琢磨谷歌云给的实时买卖场数据,成功预测到一款无线耳机会爆火,提前三个月备货,卖额翻了三倍。这种案例以后会越来越许多——中细小企业用开源模型+矮小本钱算力,就能实现过去只有巨大公司才能做的AI应用。
但别高大兴太早,坑也不少许。有跨境电商开发者吐槽, 谷歌云的Vertex AI平台虽然优良用,但文档太麻烦,新鲜手折腾了两周才跑通第一个模型。而且,巨大模型的“幻觉”问题依然存在——AI生成的商品说说兴许包含错误信息,弄得客诉。Meta和谷歌得解决这些个“再说说一公里”问题,才能真实正把算力红利送到中细小企业手里。
扎克伯格的AI豪赌,到底能不能赢?眼下看,至少许算力这一步,他找到了个不错的“临时队友”。但AI竞赛比的不是谁跑得迅速,而是谁能跑得更久。Meta的自建数据中心还在建, 谷歌云的算力也不是取之不尽,这场百亿美元的一起干,更像是一场“中场歇着”——两家巨头都在为到头来的AI决赛积蓄力量。至于谁会笑到再说说得看谁能把算力、模型、生态捏得更紧了。
欢迎分享,转载请注明来源:小川电商