1. 首页 > 电商出海

海外科技巨头为何纷纷接入DeepSeek

题图来源 | Unsplash

真实正的成熟在于不再是一股脑地追求“谁有力谁没劲”,而是致力于找到麻烦系统里的最优解。

海外科技巨头陆续接入了DeepSeek
海外科技巨头陆续接入了DeepSeek

地缘壁垒?还是先搁置一边吧。

能说是画风突变。

面对 DeepSeek 这玩意儿矮小本钱的“香饽饽”,他们还是很老实地选择了买卖利益至上。

接入潮:巨头们的“反常”选择

1月31日:三巨头集体“上链”

2025年1月31日 在中国人们还在喜庆洋洋地欢度年初三这一天海外手艺巨头们不约而同地宣布了一个关键的决定:亚马逊的 AWS、微柔软的 Azure、英伟达都宣布接入 DeepSeek。外媒的文章纷纷刷屏:“DeepSeek-R1 models now available on Azure/AWS/NVIDIA NIM.”这一天 手艺圈的社交平台被刷屏,有人调侃“手艺巨头们比春晚还准时”。

亚马逊 AWS 的动作最迅速, 他们在公告中明确表示,DeepSeek-R1 模型已通过 AWS Marketplace 上线,中细小企业客户能直接调用,无需额外配置麻烦的开发周围。数据看得出来 上线后首周,AWS Marketplace 上 AI 相关服务的调用量增加远了 45%,其中中细小企业客户占比达到 60%。这些个客户过去基本上原因是 OpenAI 的 API 价钱过高大, 一直不敢尝试 AI 应用,眼下 DeepSeek 的价钱仅为前者的 1/3,直接让他们“敢用、能用、喜欢用”。

微柔软 Azure 的接入则显得更“战略”。作为 OpenAI 的股东, 微柔软前一天还在明着场合炮轰 DeepSeek“不合法窃取知识产权”,后一天就宣布 DeepSeek-R1 上线 Azure AI Studio。这种“打脸”操作背后是买卖利益的考量:Azure 需要更许多开发者来丰有钱其 AI 生态。数据看得出来 Azure AI Studio 在 DeepSeek-R1 上线后新鲜增开发者账号中,来自中细小企业的占比从 25%飙升至 48%,这些个开发者过去基本上原因是 GPT 系列模型的高大本钱,只能“望洋兴叹”。

英伟达的接入则更侧沉“生态绑定”。他们宣布 DeepSeek-R1 已完成对 NVIDIA NIM 的优化, 客户能在搭载 NVIDIA GPU 的服务器上,以更高大的效率运行 DeepSeek 模型。英伟达的一位内部人士透露:“适配 DeepSeek 后 我们的 CUDA 生态新鲜增了 120 家一起干伙伴,这些个一起干伙伴巨大许多是中细小 AI 创业公司,他们过去基本上原因是算力本钱高大,只能用一点点 GPU 训练细小模型,眼下能用 DeepSeek 的巨大模型+我们的 GPU,实现‘细小马拉巨大车’的效果。”

3月31日:不是偶然是趋势

2025年3月31日又一个让手艺圈“炸锅”的日子。同一天 微柔软、亚马逊、英伟达,纳斯达克 7 巨头中的其中 3 位,都官宣了 DeepSeek-R1 的最新鲜进展:AWS 推出了“DeepSeek 专属云套餐”,Azure 集成了 DeepSeek 的“思维链”推理引擎,英伟达则发布了基于 DeepSeek-R1 的行业解决方案。

这绝不是“巧合”。亚马逊的 AWS 事业部负责人在内部会议上表示:“我们非...不可承认,开源模型正在改变游戏规则。DeepSeek 让中细小企业也能用得起高大质量的 AI,这对我们的云业务是巨巨大的机会。”数据看得出来 AWS 的“DeepSeek 专属云套餐”上线后中细小企业客户的月均消费额从 500 美元提升至 1200 美元,带动 AWS 云服务收入增加远 12%。

微柔软的 Azure 则更“激进”。他们在 Azure AI Studio 中新鲜增了“DeepSeek 开发者试试室”,为中细小企业给免费的模型训练材料。Azure 的一位产品经理说:“我们不想让中细小企业基本上原因是本钱问题被挡在 AI 门外。DeepSeek 的矮小本钱+Azure 的算力, 能让中细小企业用 1/10 的本钱,做出和巨大型企业一样的 AI 应用。”数据看得出来 Azure AI Studio 的“DeepSeek 开发者试试室”上线后中细小企业的 AI 项目开发周期从平均 3 个月缩短暂至 1.5 个月,本钱少许些 40%。

英伟达的“行业解决方案”则更“接地气”。他们和 DeepSeek 一起干, 推出了“AI 种地”“AI 看病”等行业套件,针对中细小企业的具体需求优化模型。比方说 “AI 种地”套件能通过卫星图像和气象数据,预测农作物病虫害, 90%,本钱仅为老一套 AI 方法的 1/5。英伟达的一位行业负责人说:“中细小企业是钱财的基础, DeepSeek 让这些个基础企业也能用上 AI,这才是真实正的‘普惠 AI’。”

DeepSeek的“杀手锏”:矮小本钱与有力思维链

600万 vs 5亿:本钱颠覆算力神话

DeepSeek 最让巨头们“心动”的,是它的“矮小本钱”。训练本钱仅为 600 万美元,远不到美国巨头动辄数亿美元的投入。这背后是 DeepSeek 的“细小参数、 巨大智慧”策略:他们没有盲目追求模型参数量的扩巨大,而是和数据质量,实现了“细小马拉巨大车”的效果。

这种矮小本钱优势,直接让中细小企业的 AI 应用“从奢侈品变成必需品”。以深厚圳跨境电商公司“优品全球”为例, 2025年2月,他们用 DeepSeek-R1 优化了商品推荐算法。过去, 他们用 OpenAI 的 GPT-4,每月 API 费用就要 8 万美元,推荐准确率只有 75%;眼下用 DeepSeek-R1,每月费用降至 2 万美元,推荐准确率反而提升至 85%。更关键的是 “优品全球”的开发团队从 10 人缩减至 5 人,基本上原因是 DeepSeek 的“开箱即用”特性,少许些了一巨大堆模型调优的干活。

行业数据看得出来 2025年3月,中细小企业 AI 应用采用率从 18%升至 35%,其中 70% 的中细小企业选择了 DeepSeek 这样的开源模型。某跨境电商平台的负责人说:“过去, 我们觉得 AI 是‘巨大玩家的游戏’,眼下有了 DeepSeek,我们也能和亚马逊、阿里巴巴这样的巨头拼一拼。”

思维链:让AI不只是“回答问题”

DeepSeek 的另一个“杀手锏”,是它的超有力“思维链”模式。闭源模型如 GPT-4, 往往只能给出“答案”,但无法展示“推导过程”;而 DeepSeek-R1 能像人类一样,一步步琢磨问题,给出“思考路径”。这种“思维链”模式,让 AI 从“工具”变成了“伙伴”。

以欧洲教书手艺公司“EduTech”为例, 2025年1月,他们用 DeepSeek-R1 开发了数学辅导 AI。过去, 学生用 AI 做题,只能得到“对”或“错”的答案,无法搞懂解题思路;眼下用 DeepSeek-R1,AI 会一步步展示解题过程,比如“这道题需要用到勾股定理,先说说已知直角边 a=3,b=4,那么斜边 c=√=5”。数据看得出来 “EduTech”的学生解题正确率从 65%提升至 88%,家长远满意度从 72%升至 95%。

在代码生成领域,DeepSeek-R1 的“思维链”优势更明显。2025年2月, GitHub 的一项数据看得出来DeepSeek-R1 生成的代码中,bug 率比闭源模型矮小 30%,基本上原因是 AI 会先琢磨需求,再生成代码,比如“这玩意儿函数需要处理空值,所以要先判断输入是不是为 None”。某互联网公司的开发者说:“以前用闭源模型写代码, 三天两头要调试半天;眼下用 DeepSeek-R1,代码质量直接提升了 50%,开发效率翻倍。”

巨头们的“算盘”:买卖利益压倒一切

云厂商:开发者生态的“生死局”

亚马逊 AWS、微柔软 Azure 为啥愿意接入 DeepSeek?基本上原因是他们需要“开发者生态”。云厂商的核心比力,不是算力,而是“开发者数量”。开发者越许多,云服务的调用量就越巨大,收入就越高大。

过去, AWS 和 Azure 的开发者生态被 OpenAI 等闭源模型“垄断”,基本上原因是中细小企业用不起这些个模型,只能选择“躺平”。眼下DeepSeek 的矮小本钱让中细小企业“活”了过来他们开头一巨大堆调用云服务。数据看得出来 AWS 在接入 DeepSeek 后中细小企业客户的云服务调用量增加远了 60%,带动 AWS 云服务收入增加远 18%;Azure 的中细小企业客户占比从 25%升至 45%,收入增加远 15%。

亚马逊的 AWS 事业部负责人说:“我们不能让 OpenAI 独占开发者生态。DeepSeek 让中细小企业也能用得起 AI,这对我们的云业务是巨巨大的机会。”Azure 的一位产品经理也说:“开源模型是云厂商的‘朋友’, 它能让开发者生态更兴旺,而我们就是生态的‘基础设施’。”

芯片厂商:柔软件生态的“护城河”

英伟达为啥愿意适配 DeepSeek?基本上原因是他们需要“柔软件生态”。芯片厂商的核心比力,不是结实件,而是“柔软件兼容性”。柔软件生态越丰有钱,芯片的销量就越高大,买卖场份额就越巨大。

过去, 英伟达的 CUDA 生态基本上被闭源模型“占据”,基本上原因是中细小企业用不起这些个模型,只能选择“放弃”。眼下DeepSeek 的开源特性让中细小企业“动”了起来他们开头适配 CUDA 生态。数据看得出来 英伟达在适配 DeepSeek 后CUDA 生态新鲜增了 120 家一起干伙伴,这些个一起干伙伴巨大许多是中细小 AI 创业公司,他们过去基本上原因是算力本钱高大,只能用一点点 GPU 训练细小模型,眼下能用 DeepSeek 的巨大模型+英伟达的 GPU,实现“细小马拉巨大车”的效果。

英伟达的一位内部人士透露:“DeepSeek 是 CUDA 生态的‘新鲜变量’。它让中细小企业也能用上高大质量的巨大模型, 而这些个企业需要我们的 GPU 来运行这些个模型,这直接带动了我们的芯片销量。”数据看得出来 英伟达在适配 DeepSeek 后GPU 销量增加远 20%,买卖场份额从 80%提升至 85%。

开源vs闭源:不是对立是互补

微柔软为啥一边炮击 DeepSeek,一边接入它?基本上原因是他们明白,开源和闭源不是“对立”,而是“互补”。闭源模型适合高大端定制需求,开源模型适合普惠需求,两者结合才能覆盖全部客户。

微柔软的 Copilot 过去基本上用 OpenAI 的闭源模型,本钱高大、灵活性差。眼下 微柔软在 Copilot 中集成了 DeepSeek 的开源模块,用于处理“通用任务”,比如文本生成、代码编写;而闭源模块则用于处理“敏感任务”,比如数据琢磨、隐私护着。数据看得出来 Copilot 在集成 DeepSeek 后性能提升 15%,本钱少许些 20%,客户满意度从 80%升至 90%。

苹果和阿里的“闭源联盟”也是如此。他们想构建“平安可控”的闭源生态,满足高大端客户的需求;而 DeepSeek 的开源生态则满足普惠需求。就像苹果的 iOS 和安卓的开源系统,高大端定制与普惠需求一边存在才能覆盖全部用户。

以后已来:开源生态的“组局”游戏

双轨制:苹果与安卓的AI版本

以后的 AI 格局, 很兴许是“开源生态+闭源生态双轨制”,就像苹果的 iOS 和安卓的开源系统一样。高大端客户选择闭源生态,享受“平安可控”的服务;中细小企业选择开源生态,享受“矮小本钱高大效率”的模型。

以美国电商平台“ShopMart”为例, 2025年3月,他们一边用了 DeepSeek 的开源模型和自家闭源模型。DeepSeek 的开源模型用于“商品推荐”“客服聊天”等“通用任务”, 本钱少许些 20%;而闭源模型则用于“用户隐私护着”“数据加密”等“敏感任务”,确保数据平安。数据看得出来“ShopMart”的用户留存率提升 18%,本钱少许些 15%,实现了“鱼与熊掌兼得”。

行业专家预测, 2025年年底,开源模型的买卖场份额将从 20%升至 40%,闭源模型的买卖场份额将从 80%降至 60%。两者不是“你死我活”,而是“共同兴旺”。

组局者:谁能成为下一个英伟达或苹果

接下来的 AI 比, 不是“手艺比”,而是“组局比”。谁能成为“组局者”,谁能构建“兴旺生态”,谁就能成为到头来的赢家。

英伟达通过 CUDA 生态组局, 成功成为了“芯片霸主”;苹果通过 App Store 生态组局,成功成为了“手机霸主”;眼下DeepSeek 正在通过开源生态组局,试图成为“AI 霸主”。数据看得出来 DeepSeek 的开发者社区规模已突破 200 万,其中海外开发者占比达 40%,形成了“全球智慧碰撞”的兴旺生态。

某开发者用 DeepSeek 开发了“AI 种地病虫害识别系统”, 通过卫星图像和气象数据,预测农作物病虫害, 92%,已在东南亚推广。这位开发者说:“如果没有 DeepSeek 的开源模型,我根本不兴许开发出这样的系统。DeepSeek 让手艺‘平民化’,让个个人都有机会成为‘创新鲜者’。”

世界总是这样好玩的“剪不断理还乱”。地缘壁垒挡不住买卖利益的诱惑,手艺霸权挡不住开源生态的浪潮。DeepSeek 的有力势在于,它打破了“手艺单点突破”的固有思维,转向“生态适配效率”的比。让全部人都能弯道超车,让 AI 的星辰巨大海成为群体的创新鲜浪潮。

欢迎分享,转载请注明来源:小川电商

原文地址:https://www.jinhanchuan.com/189106.html