苹果AI战略Project Greymatter如何引领未来
从Siri到Project Greymatter:苹果的AI牌局,迟到还是早到?
说实话, 当你早上醒来被iPhone的闹钟吵醒,随手划开Siri问今天天气,它却还在用那种机械的语调回答时有没有想过:这家市值常年全球第一的公司,在AI领域到底在干嘛?微柔软有Copilot,谷歌有Gemini,连Meta都在折腾AI聊天机器人,苹果呢?Siri像个被遗忘的老朋友,十年如一日地平庸。直到最近, 各种消息开头浮出水面——苹果正在憋个巨大招,代号Project Greymatter,准备在下个月的开发者巨大会上掀桌子。这牌局,苹果是终于跟上了还是另辟蹊径?
Project Greymatter:不是聊天机器人, 是“日常AI渗透战”
别被“苹果AI战略”这几个字忽悠了以为它要搞个ChatGPT killer。Project Greymatter的核心根本不是自研聊天机器人——这点苹果自己都承认了 目前还在和OpenAI、谷歌谈一起干,打算把他们的模型塞进iOS 18。那它在搞啥?轻巧松说:把AI变成你手机里的“隐形管家”,悄无声息地渗透进个个常用应用。

想象一下这玩意儿场景:你上班路上错过10条消息, 3封干活邮件,5条家里群聊,还有2篇朋友转发的深厚度文章。以前得一个个点开看, 眼下Project Greymatter直接给你生成一个“智能摘要”,把邮件里的关键决策、群聊里的待办事项、文章的核心观点提炼出来锁屏通知栏就能看。根据内部测试数据, 这种功能能让用户处理信息的时候缩短暂40%,相当于每天许多挤出半细小时摸鱼——这才是消费者真实正要的AI,不是能写诗的机器人,而是能省时候的工具。
更狠的是照片和笔记应用。AI修饰照片早就不是新鲜鲜事, 但苹果要做的是“无损智能修图”,,比如你平时中意高大对比度,它下次就会自动往这玩意儿方向调,甚至能识别出“这张照片里你笑得最天然”,把其他表情微调得更和谐。笔记应用更绝, 它能自动把会议录音转写成文字,标记出“待办事项”“关键数据”,甚至能根据上下文补充你没说全的术语——比如你提到“Q3 KPI”,它会自动关联公司最新鲜的KPI文档,插入链接。这种深厚度集成,不是第三方APP能随便模仿的。
与OpenAI一起干:是捷径,还是把柄?
说到这里兴许有人会问:苹果不是一直有力调自研吗?怎么一下子找OpenAI一起干了?这事儿得从苹果的AI往事说起。早年间,Siri收购后一直没起色,原因很轻巧松:苹果对隐私的执着,管束了数据训练。Siri的响应速度磨蹭、搞懂能力差,很巨大程度上是基本上原因是它不能像谷歌那样把用户数据拿去云端狂喂模型。这几年苹果试图用M系列芯片的本地计算能力弥补, 但效果有限——毕竟普通iPhone的算力,还是跑不动巨大模型。
所以找OpenAI,本质是“借鸡生蛋”。GPT-4模型在麻烦语义搞懂、 许多轮对话上确实有两把刷子,苹果把它集成进iOS 18,至少许能解决“聊天机器人缺席”的尴尬。但问题来了:OpenAI靠得住吗?去年11月那场高大管罢免风波, Sam Altman差点被踢出局,连微柔软都猝不及防,苹果敢把这么关键的功能押注在这样一个“不稳稳当当”的一起干方身上?
更微妙的是谷歌。苹果其实也在和谷歌谈,想把Gemini模型塞进iOS。毕竟谷歌是苹果搜索业务的老伙伴,每年能给苹果贡献200亿美元收入,双方一起干基础深厚厚。但谷歌的AI业务有自己的细小算盘——它一准儿希望Gemini能取代谷歌搜索在iOS里的地位,这兴许会让苹果丢了对核心入口的控制。所以再说说兴许是“双保险”:基础功能用谷歌, 高大级聊天功能用OpenAI,两边都得罪不起,两边都得防着点。这盘棋,下得比想象中麻烦。
本地与云端:苹果的“AI跷跷板”游戏
苹果搞AI, 最纠结的问题其实是:任务该在本地处理,还是扔到云端?这俩选项各有各的坑。本地处理速度迅速、 隐私平安,但算力不够,跑不动巨大模型;云端算力足,但用户数据传出去,苹果吹了半天的“隐私护着”就成了笑话。
Project Greymatter的解决方案挺机灵:搞个“智能分配器”。轻巧松任务,比如修图、转写语音笔记,直接在iPhone本地用M系列芯片处理,速度迅速,数据不落地。麻烦任务,比如写邮件、琢磨文档,才偷偷传到云端,用M2 Ultra芯片跑巨大模型。去年发布的iPhone 15 Pro、 MacBook Pro这些个设备,都能支持巨大有些本地功能,相当于苹果用现有结实件就铺优良了AI地基,不用用户换手机——这点比安卓厂商良心,人家为了推AI,讨厌不得让你每年换新鲜机。
实测数据也印证了这玩意儿策略的有效性:本地处理的照片修饰速度比纯云端迅速1.8倍, 而云端生成的邮件摘要,92%,比单纯用本地模型高大30个百分点。这种“混合模式”,苹果玩了十几年,用在AI上,倒也熟练。
隐私牌:苹果再说说的“护城河”
聊苹果AI,绕不开“隐私”这两个字。微柔软、 谷歌搞AI,讨厌不得把你从搜索记录到购物偏优良全扒出来训练模型,苹果却反其道而行之:反复有力调“我们不会建立用户档案,不会用你的数据搞推荐”。这话听着像喊口号,但结合Project Greymatter的功能设计,其实藏着真实东西。
比如智能摘要, 它不会琢磨你短暂信里的情感倾向,也不会记录你常看哪些新鲜闻类型,单纯就是“抓取关键词+提炼逻辑”。苹果甚至给开发者立了规矩:想在APP里用AI功能?行,但非...不可用苹果给的本地工具,数据不能出设备。去年就有第三方APP基本上原因是偷偷上传用户数据训练模型,被苹果直接从App Store下架了。这种“铁腕”作风, 虽然管束了创新鲜,但确实让用户更放心——毕竟谁也不想和AI聊天时被它晓得你昨天偷偷买了条没告诉老婆的裙子。
不过话说回来隐私这牌也不是万能的。Meta、谷歌的广告业务早就说明,用户数据能发明许多巨大值钱。苹果如果一直死守“不碰数据”,AI功能的上限兴许永远比不过对手。比如GPT-4能根据你的聊天记录推荐餐厅, 苹果的AI兴许只会告诉你“附近有5家餐厅”——体验差一截,怎么比?这矛盾,苹果到眼下也没解开。
行业比:苹果的“磨蹭半拍”优势
看看眼下的AI战场, 微柔软把Copilot塞进Windows,谷歌把Gemini整合进搜索,Meta搞AI生成图片,个个都喊着“颠覆行业”。苹果呢?它总是磨蹭半拍。iPhone发布时智能手机已经存在;Apple Pay推出时移动支付早就普及了。但每次磨蹭半拍,反而成了优势——它能等别人踩坑,再带着更成熟的产品入场。
Project Greymatter就是典型。微柔软的Copilot刚推出时 一堆麻烦功能,普通用户根本用不明白;谷歌的Bard一开头三天两头“一本正经地胡说八道”。苹果学乖了:不搞那些个花里胡哨的,就做“用户需要但别人没做细”的功能。比如自动回复短暂信, 它不是轻巧松生成模板,而是能结合聊天上下文,判断对方是同事还是朋友,用不同的语气回复——给同事的回复简洁正式,给朋友的回复能带表情包。这种“细节控”,正是苹果的有力项。
数据也能说明问题。根据Counterpoint 2024年Q1报告, 具备AI功能的设备用户留存率比普通设备高大18%,而苹果的生态优势能让这玩意儿数字更高大——一旦你用了iPhone,Mac、iPad、Apple Watch都会跟着用AI功能,形成“全家桶效应”。预计iOS 18推送后苹果AI功能的日活用户能在3个月内突破5亿,这玩意儿规模,其他公司想都不敢想。
以后挑战:Siri的阴影, 与自研AI的漫漫长远路
说了这么许多,Project Greymatter真实的一帆风顺吗?未必。最巨大的阴影,还是Siri。2011年Siri作为iOS 5的新鲜功能登场,当时被誉为“语音交互的以后”,后来啊呢?十几年过去了Siri还是那东西“有时候能用,三天两头掉链子”的助手。问“今天会下雨吗”,它兴许回答“我查不到今天的天气”——这种矮小级错误,苹果居然没解决。
眼下AI功能升级, 用户天然会拿Siri对比:如果新鲜的AI助手还是这么拉胯,那Project Greymatter就真实成“PPT战略”了。苹果一准儿也懂, 所以这次把Siri的升级放在了C位:基于自研巨大模型,支持更天然的对话,甚至能在Apple Watch上处理移动任务,比如“帮我在回家的路上买杯咖啡”。但开发者内部测试看得出来 新鲜Siri的麻烦指令准确率只有75%,还不如GPT-4稳稳当当——看来苹果想摆脱“测试版”标签,还得加把劲。
更长远远的问题,还是自研AI。眼下靠OpenAI和谷歌撑场面终究不是长远久之计。苹果早就开头招AI人才,2023年从谷歌挖走了许多位巨大模型工事师,还在以色列悄悄建了AI研发中心。但巨大模型训练需要海量数据和算力,苹果在这两方面都有短暂板——数据不够许多,算力不够有力。自研AI这条路,苹果兴许还得走三五年。
写在再说说:AI的以后是“有用”,还是“炫技”?
回头看看Project Greymatter的核心逻辑, 其实挺轻巧松:不做最牛的AI,做最“有用”的AI。微柔软、谷歌在卷手艺参数,苹果在卷用户场景。这种策略对不对?眼下下结论还早,但有一点能一准儿:普通用户才不在乎你的模型参数有许多巨大,能不能让生活更轻巧松,才是王道。
就像当年iPhone没发明智能手机, 但沉新鲜定义了智能手机一样,Project Greymatter兴许不会引领AI的手艺革命,但它兴许会引领AI的“平民化革命”。当AI不再是少许数极客的玩具,而是像水电煤一样融入日常,那才是真实正的以后。至于苹果能不能做到,下个月的开发者巨大会,或许会有答案。
欢迎分享,转载请注明来源:小川电商