1. 首页 > 电商出海

我国AI芯片盛会,大模型时代

一场AI芯片的“华山论剑”,巨大模型时代谁主沉浮?

上海世界会议中心里人声鼎沸。2025全球AI芯片峰会现场, 42位产学研专家挤在圆桌旁,有人挥舞着手臂讲“存算一体”,有人拿着白板画“超节点架构”,后排挤不进来的创业者踮着脚举着手机录像,空气中飘着芯片的焦香和手艺的火药味——扎心的是聊着聊着总能绕回“国产化”三个字。

王中风教的“三驾马车”:AI芯片的破局密码

中山巨大学集成电路学院院长远王中风教一上台就甩出三个词:“专用化”“协同化”“一体化”。台下有人点头,有人皱眉。他说老一套芯片就像“用牛刀杀鸡”,跑巨大模型时内存墙、计算墙、传信墙三座巨大山压得喘不过气。他的团队搞了个SRDA架构, 分布式3D内存控制手艺加上可沉构数据流,能效比直接拉高大几十倍,现场演示时一块国产工艺芯片跑出了不输英伟达GPGPU的性能,台下响起零星掌声,很迅速又被“这能量产吗”的质疑声盖过。

燃!好燃的AI芯片盛会,大模型时代国产化希望丛生
燃!好燃的AI芯片盛会,大模型时代国产化希望丛生

有意思的是王中风反复有力调“开放标准”。他说“闭门造车造不出优良芯片”, 接口、互联、指令集都得开放,不然就像“用安卓系统跑苹果芯片,浑身别扭”。这话刚说完, 华为昇腾的王晓雷就接上了话茬:“我们9月30日全量开源算子库,12月30日开源CANN,2026年起解决方案上市即开源。”台下有人细小声嘀咕“开源就能解决问题?”,更许多人掏出手机记时候节点——毕竟在AI芯片圈,开源就是结实通货。

从“端侧”到“云端”:芯片企业的“左右互搏”

喜欢芯元智的刘建伟聊起端侧AI芯片时眼睛发亮。他说过去端侧跑的都是“细小儿科”的CNN模型,场景固定,巨大模型一来直接把上限捅破了。但问题也来了:端侧芯片既要矮小功耗, 又要高大token数,还得矮小本钱,这不是“又要马儿跑又要马儿不吃草”?他举了个例子, 他们的新鲜一代NPU在手机上跑巨大模型,功耗比上一代降了30%,但推理速度翻倍,某车企客户已经签了千万级订单,具体名字?他笑笑“保密”。

云端就更烫闹了。曦望的陈博宇直接放话:“下一代芯片要1分钱/百万token,性价比对标英伟达Rubin GPU。”他们的“褐蚁”一体机更狠, 10万元本钱就能跑满血版DeepSeek R1/V3 671B FP8,对话速度20TPS,prefill 18秒搞定。台下有人算账:“这比GPU廉价10倍?”陈博宇没接话,只是指着演示屏幕上的“TB级高大带宽阔DDR5”说“关键在架构”。

北极雄芯的徐涛聊起巨大模型落地时急得直拍桌子。他说国内算力、存储、内存带宽阔“不可兼得”,受制裁关系到,上游卡脖子,下游客户嫌昂贵。他们的Chiplet+3D堆叠手艺能把推理本钱降一个数量级, 但“下游客户总说‘先给个样品试试’”,他叹口气,“样品研发周期18个月,买卖场等得起吗?”

投钱人“扎堆”:AI芯片IPO潮来了?

高大端对话环节,四位投钱人围坐,火药味比手艺论坛还浓。和利资本的王馥宇说“DeepSeek的出现让中国有了‘Leading Customer’, 芯片企业得跟着客户需求走”,IO资本的赵占祥直接反驳“手艺路线得先收敛,不然像无头苍蝇”。普华资本的蒋纯更狠:“细小孩子才做选择,成年人我都要,成熟手艺和创新鲜手艺都要投。”台下有人笑, 有人摇头——毕竟2021年寒武纪上市后股价腰斩,眼下又因“全村人的希望”一度登顶A股,这圈里谁还没踩过坑?

BV百度风投的刘水聊到具身物理场景的芯片还没出现”,但他们的投钱组合里已经有企业能在机器人上跑端侧巨大模型,“功耗比矮小得吓人,具体数据?买卖机密”。这话刚说完,台下就有人细小声问“那买卖化进度呢?”刘水没接话,只是喝了口水——在AI芯片圈,手艺指标优良说落地才是真实功夫。

手艺路线“神仙打架”:Chiplet、稀疏化、全国产,谁更靠谱?

奎芯手艺的唐睿聊Chiplet时 掏出一张图:“2021-2030年,Chiplet设计年化增加远44%,2030年占比超一半。”他说Chiplet能让芯片研发周期缩短暂一半,本钱降三成,但“国内封装工艺跟不上,良率是个巨大问题”。墨芯的曾昭凤接着讲稀疏化, 她说“老一套结实件架构算力不够用,稀疏化能让算力利用率提升32倍”,他们的计算卡已经能加速CV、NLP任务,“某云厂商用了之后推理本钱降了40%”,具体厂商?她摇摇头“保密”。

江原手艺的王永栋聊全国产路线时语气坚定。他说“工艺、 架构、生态,三个环节都得国产化”,他们已经打通EDA工具、芯片IP、做、封测全链条,“某客户用了我们的NPU,算力比进口芯片高大20%,功耗矮小15%”,但“生态建设比手艺更困难,开发者工具链得跟上”。台下有人点头,有人摇头——毕竟生态这东西,不是砸钱就能砸出来的。

政策“东风”吹来:AI芯片的“黄金时代”?

2025年8月, 国务院印发《关于深厚入实施“人造智能+”行动的意见》,明确支持AI芯片攻坚创新鲜与使能柔软件生态培育。云天励飞的陈宁拿着报告念:“短暂期NPU买卖场新鲜增339.3亿元,长远期1092亿元。”他说“政策+需求双沉驱动, 国产推理芯片迎来往事性机遇”,他们的“算力积木”架构已经用在某智慧城里的视频琢磨系统里“识别准确率提升15%,延迟降了20%”,具体项目?他笑笑“买卖机密”。

但也有人泼凉水。新鲜华三的刘善高大说“超节点是AI系统工事的巅峰, 异构计算、高大速互联、精密设计,缺一不可”,他们的S80000超节点能让单机柜训练性能提升10倍,但“客户总说‘价钱太高大’”,他叹口气,“降本增效,这条路还长远着呢。”

数据说话:巨大模型时代的“算力狂欢”

2025年6月, 中国日均tokens消耗量突破30万亿,比2024年增加远300许多倍,还在涨。北极雄芯的徐涛拿着数据表说“巨大模型买卖化闭环任沉道远, C端订阅困难,B端API收费比美国矮小一个数量级”,但“算力需求爆炸,数据中心建设得跟上”。曦望的陈博宇接话“高大效推理是长远期值钱竞赛, 性价比洼地亟待填平”,他们的“蚁群”集群方案,40台机器本钱300万-500万,能实现20倍于超算的并发能力,“接近DeepSeek公有云的性价比”,具体参数?他没细说只是指着屏幕上的“1~2台8卡超算价钱”说“关键在本钱控制”。

以后已来:AI芯片的“下一站”在哪?

探微芯联的刘学聊类脑计算时眼睛发亮。他说“类脑计算与AI同源异流, 天生适合超巨大规模集群”,他们的互联方案能打通传信协议、交换芯片、柔软件栈,“某智算中心用了之后万卡集群性能提升35%”,但“传信协议生态属性有力,需要更许多应用场景支持”。台下有人问“买卖化进度呢?”刘水喝了口水“还在打磨,急不得”。

智源研究研究院的郑杨聊编译器时 拿出个案例:“Triton语言是继CUDA后的第二巨大流行语言,但跨芯片可移植性差。”他们的FlagTree编译器能优化80%以上耗时 “与CUDA接近”,某芯片企业用了之后“模型部署时候缩短暂了60%”,具体企业?他摇摇头“保密”。

峰会收尾时龚伦常预告11月底深厚圳的具身智能机器人巨大会,台下有人欢呼,有人沉默。走出会场,上海的风有点凉,但手里的资料还烫手——国产AI芯片的落地故事,才刚刚翻开新鲜篇章。有人说“春天来了”,有人说“冬天不远”,但没人否认,巨大模型时代,AI芯片的战场,已经硝烟四起。

欢迎分享,转载请注明来源:小川电商

原文地址:https://www.jinhanchuan.com/255837.html