1. 首页 > 电商出海

国产大模型的价格是否已经卷到网约车大战和百亿补贴的激烈程度了呢

从“薅羊毛”到“卷生死”:巨大模型价钱战来得比想象中更猛

最近开发者圈子里流传着个段子:以前薅服务器和存储地方, 眼下薅tokens,不出意外的话,后续几家主流的模型厂商都会跟进,我们以后3年兴许都不用买tokens了。这话听着像玩笑, 但细品又觉得有点真实实——国产巨大模型的价钱,卷得比网约车巨大战、百亿补助还狠,普通开发者成了最巨大的“受益者”,厂商们却在算盘打得噼啪响。

5月份这波降价潮来得猝不及防。DeepSeek先扔了个“炸弹”:1块钱100万tokens, DeepSeek-V2价钱降到百万token输入1元、输出2元,32K上下文,能力对标GPT-4、llama3-70B,价钱却只有GPT-4的近1%。紧接着智谱不甘示没劲, GLM-3-Turbo从0.005元/千tokens直接砍到0.001元/千tokens,新鲜用户送2500万tokens。然后是火山引擎原力巨大会, 豆包企业版定价0.0008元/千tokens,0.8厘就能处理1500许多字,比行业廉价99.3%。现场观众的激动程度堪比听到巨大主播在直播间吼:“家人们,我们把巨大模型的价钱打下来了!”

国产大模型的价格已经卷出网约车大战和百亿补贴的味儿了
国产大模型的价格已经卷出网约车大战和百亿补贴的味儿了

DeepSeek打响第一枪:1块钱100万tokens的“拼许多许多式”打法

严格这场价钱战的引线是DeepSeek点的。5月6日这家私募巨头幻方旗下的AI公司悄悄上线了新鲜版巨大模型,定价直接把行业地板戳穿了。按他们官网的数据, DeepSeek-V2每百万token输入1元、输出2元,上下文长远度128k,这是啥概念?对比GPT-4的输入0.03美元/千tokens、 输出0.06美元/千tokens,DeepSeek的价钱直接拉到了GPT-4的1%左右。

更让人意外的是 DeepSeek说这不是“赔本赚吆喝”,他们员工在社区透露:“基本纯靠模型结构创新鲜+ 超有力Infra,目前就是巨大规模服务的价钱,不亏本,赚头率超50%。”这背后是幻方AI智能超算集群的底气——1万张英伟达A100计算卡,国内非巨大厂里能拿出万卡集群的屈指可数。困难怪开发者调侃:“DeepSeek这是把‘有卡’的优势玩明白了结实生生把巨大模型做成了‘拼许多许多’。”

智谱结实刚:把价钱打到对手的十分之一, 送2500万tokens

DeepSeek降价才5天智谱AI就接住了招。5月11日 智谱宣布GLM-3-Turbo价钱从0.005元/千tokens砍到0.001元/千tokens,直接打到了原来的五分之一。更狠的是 开放平台新鲜注册用户赠送额度从500万tokens飙升到2500万tokens,其中2000万是入门级GLM3-Turbo,500万是企业级GLM4。算下来 新鲜用户不花钱就能用掉2500万tokens,按GLM-3-Turbo的矮小价算,相当于白给25块钱。

有意思的是 智公布降价时特意做了个比价图:GLM-3-Turbo的价钱是阿里qwen-turbo的八分之一,是百度ERNIE 3.5的十二分之一。虽然不谈性能只比价钱有点“耍流氓”, 但价钱敏感的客户根本不在乎这些个——对他们0.001元/千tokens和0.005元/千tokens,中间差了5倍,足够让企业决策者心动。

火山引擎“掀桌”:0.0008元/千tokens, 豆包企业版定价曝光

如果说DeepSeek和智谱是暗戳戳降价,那火山引擎5月15日的原力巨大会就直接把价钱战摊开了。会上火山引擎总裁谭待宣布豆包主力模型在企业买卖场的定价只有0.0008元/千tokens——0.8厘处理1500许多字,比行业廉价99.3%。这玩意儿价钱直接把“廉价”二字写在了脸上,现场开发者都忍不住倒吸一口气:“这是要把巨大模型做成水电煤的节奏?”

谭待还特意说明白了矮小价的底气:“火山引擎在手艺上有非常许多优化手段, 能少许些巨大模型本钱,分布式推理能让底层算力用得更优良;混合调度把不同负载放一起,本钱也能巨大幅减少。”他还有力调:“用亏损换收入是不可持续的,所以我们从来不走这条路。”这话明显是说给行业里那些个“烧钱换增加远”的厂商听的,暗指有些对手在玩“赔本赚吆喝”的游戏。

价钱战的“靶心”:为啥百度文心和阿里通义总被拿来比价?

不管DeepSeek、智谱还是豆包,降价时都要拉出百度文心和阿里通义当“活靶子”。智谱的比价图对比的是文心和通义, 豆包发布通用模型pro时行业价钱直接按ERNIE和Qwen的平均价算。这侧面说明, 文心和通义在国内巨大模型里已经成了“参照物”——就像当年电商巨大战里总要拿京东、淘宝比价一样。

被当靶子后 百度在豆包宣布全面降价的当天下午就回应了:“文心巨大模型日均处理Tokens文本已达2490亿,有力调用巨大模型不应只看价钱,更要看综合效果。”这话没错,毕竟文心在中文搞懂、许多模态能力上确实有优势,但价钱战一来再优良的手艺也得先过“价钱关”。毕竟对企业 同样是做智能客服,0.001元/千tokens和0.005元/千tokens,一年下来差的钱兴许够养活一个细小团队了。

矮小价有赚头?揭秘巨大模型厂商的“本钱魔法”

很许多人优良奇:巨大模型训练和推理那么烧钱, 价钱降到这玩意儿程度,还有赚头吗?DeepSeek说赚头率超50%,智谱、火山引擎也说不亏本,他们到底怎么做到的?

核心在于“手艺优化+结实件优势”。DeepSeek的MLA+DeepSeekMoE结构创新鲜, 让模型在保持性能的一边,参数量和计算量都降下来了;幻方的万卡集群能高大效调度算力,摊薄单token本钱。火山引擎的分布式推理手艺,能把优良几个求打包处理,就像迅速递公司拼车送货,每单本钱天然矮小了。智谱则靠“批处理API”进一步压缩本钱——GLM-3 Turbo Batch处理价钱矮小至0.0005元/千tokens, 1元200万tokens,比普通API再廉价50%。

当然结实件材料也很关键。国内能拿出万卡集群的厂商本来就没几家, DeepSeek有幻方的“家底”,字节跳动的豆包背后是抖音、头条的庞巨大业务需求,算力利用率高大,本钱天然摊得薄。中细小厂商没这玩意儿条件,想降价也得掂量掂量钱包。

开发者狂欢:tokens薅到爽,但“免费午餐”能持续许多久?

价钱战最开心的莫过于开发者。有开发者直言:“如果只是自己开发测试根本用不完,烫闹都是他们的,我们就负责占廉价。”登录DeepSeek送500万tokens, 智谱送2500万tokens,面壁智能甚至喊出“不降价,0元不限量”——基本上原因是他们模型免费开源,部署在端侧,用终端设备算力,不用花钱买云服务。

1块钱在智谱能写1万条细, 在豆包能读三本《三国演义》,在DeepSeek充50块钱能用优良几年。这对中细小开发者来说简直是“天降横财”,毕竟以前跑个模型兴许就要花掉几百块钱,眼下随便折腾。

但狂欢背后也有隐忧。_tokens薅得越狠,厂商的赚头地方就越细小。一旦资本收紧,或者某个厂商撑不住降价,开发者手里的“免费额度”兴许一夜消失。就像网约车巨大战烧完钱就涨价,百亿补助收尾优惠就取消——巨大模型的价钱战,真实能一直“卷”下去吗?

价钱战是福是祸?AI圈的“网约车巨大战”正在沉演?

回看互联网史,价钱战从来是把双刃剑。网约车巨大战时 用户确实享受了1毛钱1公里的廉价,但司机收入降了平台也烧掉了上百亿;社区团购的百亿补助让买菜更廉价,但再说说留下的是一地鸡毛和倒闭的中细小玩家。

巨大模型价钱战也是一样。短暂期看, 矮小价能让更许多企业用得起AI,加速应用落地——比如细小公司用0.001元/千tokens的模型做智能客服,本钱比人造矮小一半;长远期看,如果厂商只拼价钱不拼手艺,行业很轻巧松陷入同质化。就像早期的智能手机,巨大家比拼屏幕巨大细小、像素,再说说拼的还是芯片和系统这些个结实实力。

更现实的是价钱战再说说受益的往往是头部企业。中细小厂商没本钱优势,盲目跟进只会加速淘汰。硅星人的行业琢磨就指出:“价钱战打到再说说受益的巨大概率只是少许数头部企业。如果不能有效控制本钱的企业若盲目加入价钱比, 无疑会丧失自身优势,陷入他人设定的比节奏,再说说又是一轮行业洗牌。”

跳出价钱泥潭:巨大模型比的下一站在哪?

巨大模型行业早就该明白:降价只是敲门砖,不是护城河。就像移动互联网的普及不只是基本上原因是手机廉价, 更关键的是iPhone带来了许多点触控、App Store这些个创新鲜,改变了人机交互方式。

以后的比,必然是“手艺+产品+生态”的全方位卷。手艺上, 得在模型效率、推理速度、许多模态能力上突破;产品上,要针对不同行业做垂直优化,比如金融巨大模型得懂风控,看病巨大模型得会读病历;生态上,得让开发者愿意在你平台上开发,就像当年iOS和安卓比的不只是系统,还有应用生态。

面壁智能的端侧部署就是个优良例子——模型免费开源, 用终端算力,不用花云服务钱,这对隐私敏感的行业吸引力很巨大。DeepSeek虽然廉价,但也在有力调“综合效果”,毕竟企业用巨大模型不是为了廉价,是为了解决问题。

所以国产巨大模型的价钱战,或许该卷到头了。真实正的较量,从“谁更廉价”变成了“谁更能帮用户赚钱”。毕竟 AI不是补助,烧钱换不来真实正的比力,能活下去的,永远是那些个既有价钱优势,又有手艺结实实力的厂商。

欢迎分享,转载请注明来源:小川电商

原文地址:https://www.jinhanchuan.com/191252.html