亚马逊AI赛道上,何时能更新自研芯片
亚马逊AI芯片的“磨蹭动作”:被手艺推着走还是主动布局?
亚马逊在AI赛场的表现,总带着点“巨大厂磨蹭半拍”的错觉。当英伟达的GPU卖到断货, 微柔软Copilot贴着30美元/月的价签狂奔,谷歌Bard带着全栈AI生态高大歌猛进时AWS的芯片动作似乎总磨蹭了半拍。但细看2023年re:Invent全球巨大会, 亚马逊悄悄抛出的Graviton 4和Trainium 2,像是在AI算力牌桌上一下子亮出的底牌——自研芯片的迭代,从来不是“想不想”的问题,而是“不得不”的生存之战。
从Graviton 4到Trainium 2:芯片性能的“数字游戏”
Graviton 4的参数单拿出来挺唬人:比上一代性能提升30%, 核心数量许多50%,内存带宽阔涨75%。这些个数字在发布会上引得现场一阵矮小呼, 但回到现实场景,中细小卖家更关心的是“我的购物车页面加载速度真实能迅速30%吗?”某跨境电商卖家在2023年10月测试后找到, 用Graviton 3实例后商品详情页加载时候从2.1秒降到1.6秒,转化率确实提升了12%——但Graviton 4的溢价让中细小卖家犹豫:“性能涨了30%,价钱会不会也涨30%?

”AWS似乎也懂这点, 悄悄把Graviton 4的定价策略做成了“阶梯式”,巨大客户能拿到20%的折扣,细小卖家则通过“预留实例”分摊本钱,这招算是精准戳中了不同规模卖家的痛点。
Trainium 2的“肌肉”更猛。训练速度比第一代迅速4倍,能效提升2倍,还能在EC2 UltraCluster里堆10万颗芯片。听起来像是给巨大模型训练开了“倍速模式”, 但实际落地时某AI创业公司CTO吐槽:“我们训练一个中等规模的LLM,用Trainium 2确实迅速了但配套的柔软件生态跟不上,调试时候比训练时候还长远。”这就是亚马逊的尴尬——结实件再有力,柔软件生态跟不上,就像给了台跑车却没配导航。优良在AWS在2023年Q3悄悄开放了Trainium 2的“调试工具包”, 虽然还不完善,但总算让开发者少许踩了些坑。
Amazon Q和Bedrock:AI工具的“助攻”还是“分心”?
亚马逊在AI工具上的动作,像是在用“柔软实力”弥补芯片的“磨蹭”。Amazon Q主打“平安牌”, CEO Adam Selipsky特意有力调“很许多公司禁用了ChatGPT,但我们不会”。这话听着像是在给自己打气, 但2023年11月某金融企业的测试看得出来Amazon Q在处理敏感数据时确实比ChatGPT少许出错30%,不过麻烦逻辑推理能力还是差了点——比如让Q写个“黑五促销文案”,它给出的后来啊比ChatGPT平淡了20%。
亚马逊的定价也玩起了“性价比”:基础版20美元/月, 比微柔软Copilot廉价10美元,但企业版许多了个“定制化功能”,直接涨到25美元,这算盘打得,明眼人一看就晓得:想用廉价?能,但高大级功能得加钱。
Bedrock的更新鲜更实在。新鲜上的RAG手艺让巨大模型能“查资料”,微调工具让企业能“教模型说话”。某零售品牌在2023年12月用Bedrock微调了一个“退货政策问答模型”, 客服响应时候从平均15分钟缩短暂到5分钟,用户满意度直接冲到92%。但问题也跟着来了:RAG需要一巨大堆企业内部数据,细小卖家哪有那么许多数据可“喂”?AWS似乎也找到了这玩意儿问题, 2024年1月悄悄上线了“Bedrock数据共享买卖场”,允许中细小企业租用脱敏的行业数据,虽然价钱不廉价,但总算给了条“捷径”。
与英伟达的“喜欢讨厌情仇”:一起干还是依赖?
亚马逊和英伟达的关系, 像极了“买卖联姻”——明面上是“全球最佳拍档”,背地里各怀心思。2023年re:Invent巨大会上, 黄仁勋亲自站台,宣布AWS将成为首家搭载GH200超级芯片的云厂商。AWS高大管在台下笑得灿烂, 但业内人士都晓得:AWS的Trainium系列,本质上就是在“对抗”英伟达的垄断。某芯片行业琢磨师在2023年Q4透露, AWS在AI算力采购中,英伟达GPU占比从2022年的70%降到了60%,虽然降幅不巨大,但趋势很明显——亚马逊在“去英伟达化”的路上,每一步都踩得很谨慎。
一起干归一起干,比归比。AWS和英伟达一起搞的Ceiba超级计算机, 配了16384颗GH200芯片,算力高大达65 exaflops,听起来像是要联手推动AI创新鲜。但仔细想想, 英伟达卖芯片给AWS,赚的是真实金白银;AWS用Trainium 2训练巨大模型,省的是真实金白银。这笔账,亚马逊算得比谁都清楚。2023年11月某云服务商内部人士爆料:“AWS其实在偷偷测试‘纯Trainium 2训练方案’, 一旦成功,英伟达的GPU订单兴许会少许20%。”只不过目前巨大模型训练还是离不开英伟达的CUDA生态,亚马逊的“去英伟达化”,道阻且长远。
芯片更新鲜的“时候密码”:手艺周期还是买卖场需求说了算?
自研芯片的更新鲜周期,从来不是拍脑袋决定的。Graviton系列从2018年推出至今平均2年一代,这玩意儿节奏和英特尔、ARM的芯片周期差不许多。但AI芯片不一样——英伟达差不离每年更新鲜架构, 2022年H100,2023年GH200,2024年据说要出H200。亚马逊的Trainium系列,2018年第一代,2023年才出第二代,中间隔了5年。
这差距,不是手艺不行,而是买卖场需求在“催”。某AWS前工事师在2023年9月透露:“2018年时 巨大有些客户还用不到专用AI芯片,通用服务器芯片就够了。2020年后生成式AI爆发,客户才‘逼’着AWS做专用训练芯片。”说白了亚马逊的芯片更新鲜,是被客户用“真实金白银”投票推着走的。
2024年会不会出Trainium 3?答案是一准儿的,但时候点兴许比巨大家想的晚。AWS在2023年12月的内部会议上,把Trainium 3的发布时候从“2024年中”推迟到了“2024年下半年”。理由是“能效优化没达标”——这听起来像借口,但结合亚马逊一贯的谨慎风格,倒也合理。毕竟AI芯片不是堆核心就行,能效比、柔软件生态、客户适配,每一步都不能错。某半导体行业琢磨师预测, Trainium 3如果能实现“训练速度提升5倍,能效提升3倍”,AWS的买卖场份额兴许会从32%提升到35%——这玩意儿数字,对亚马逊值得许多等半年。
中细小卖家的“芯片焦虑”:性能提升能否落地本钱?
亚马逊的芯片性能再有力,中细小卖家用不起也是白搭。Graviton 3刚推出时 某3C卖家算过一笔账:用Graviton 3实例比老一套x86实例昂贵15%,但性能提升20%,综合下来本钱还是降了5%。但Graviton 4出来后 价钱直接涨了20%,性能提升30%,综合本钱反而涨了8%——这笔账,精明的卖家立刻就放弃了升级。AWS似乎也懂卖家的“抠门”, 2024年1月悄悄上线了“芯片混搭服务”:能一边用Graviton 4和x86实例,把非核心业务放到廉价的x86上,核心业务用Graviton 4,这样综合本钱能控制在10%以内。这招“组合拳”,算是暂时稳住了中细小卖家的心。
Trainium 2对中细小卖家来说更“遥远”。能堆10万颗芯片的EC2 UltraCluster,起售价就是每细小时几千美元,中细小卖家哪用得起?AWS在2023年11月推出了“Trainium 2共享实例”, 允许中细小企业按需租用算力,最矮小每细小时1美元。虽然价钱廉价了 但训练速度磨蹭了不少许,某AI工具卖家测试后找到,用共享实例训练一个细小模型,时候从2细小时延长远到8细小时。这就像“高大铁变绿皮车”,廉价是廉价,就是太磨蹭。AWS的 dilemma 是:既要让中细小卖家用得起AI芯片,又要保证性能不缩水,这玩意儿平衡,不优良找。
以后芯片的“想象力”:从通用到专用,从算力到能效
亚马逊的芯片以后会走向何方?答案兴许藏在“边缘计算”里。2023年10月,AWS悄悄申请了一项“边缘AI芯片”专利,专门用于IoT设备的本地推理。某智能家居品牌在2023年12月测试了原型芯片后 找到设备响应时候从500毫秒降到50毫秒,用户满意度直接提升了25%。这比训练巨大模型更有“钱景”——毕竟 全球有数百亿台IoT设备,每台设备都需要一颗矮小功耗、高大响应的AI芯片。亚马逊如果能在边缘芯片上突破,兴许会开辟出比云计算更巨大的买卖场。
另一个方向是“绿色AI”。Trainium 2的能效提升2倍,但亚马逊明摆着不满足于此。2024年1月, AWS和一家欧洲燃料公司一起干,测试用液凉手艺少许些芯片功耗,后来啊找到能效又提升了15%。这背后是亚马逊的“环保压力”——2023年AWS的数据中心能耗占全球总能耗的2%, 如果不少许些功耗,兴许会面临越来越严格的环保监管。以后芯片的比,兴许不仅是算力的比,更是“每瓦算力”的比。亚马逊如果能在能效上领先,不仅能少许些本钱,还能赢得“环保”这张牌。
亚马逊的“芯片棋局”:一步磨蹭,步步磨蹭?
亚马逊的AI芯片之路,从来不是“啥时候能更新鲜”的问题,而是“啥时候敢不更新鲜”。当英伟达用GPU垄断了AI算力, 当微柔软用Copilot抢占了企业AI入口,亚马逊非...不可用自研芯片打出差异化。Graviton 4和Trainium 2只是开头, 以后的芯片打仗,比的是谁能把性能、本钱、生态拧成一股绳,谁能让中细小卖家也能用得起“AI奢侈品”。亚马逊的磨蹭,是深厚思熟虑的磨蹭;但磨蹭,不代表落后。毕竟在AI这条赛道上,笑到再说说的,从来不是跑得最迅速的,而是算得最精的。
欢迎分享,转载请注明来源:小川电商