1. 首页 > 电商出海

Meta发布的新AI模型,能否显著增强元宇宙的沉浸式体验

Meta Motivo:元宇宙数字动作的“神经网”能织许多密?

Meta又扔出了一颗沉磅炸弹。这次不是VR头显降价,也不是元宇宙社交新鲜功能,而叫Meta Motivo的人造智能模型。官方说它能控制数字代理的动作,让虚拟人像真实人一样动起来。转身有沉心偏移,挥手带肌肉颤抖,不再是僵结实的预设动画。听起来很厉害,但问题来了:这种“更像人”的动作,真实能让元宇宙的沉浸式体验“显著增有力”吗?还是说又是一场手艺圈的自嗨?

从“木偶”到“活人”:Meta Motivo的手艺突破在哪?

先搞清楚Meta Motivo到底能干啥。轻巧松说它是给虚拟角色装“运动神经”的。以前的数字人动作要么是动画师一帧帧调的,要么是动作捕捉套件录的,本钱高大不说还特别死板。你想在元宇宙里随便走两步,后来啊角色像踩了高大跷,手都不晓得往哪放,这种体验谁受得了?

Meta发布新AI模型,将增强元宇宙体验
Meta发布新AI模型,将增强元宇宙体验

Meta Motivo不一样。它用的是一种叫“动态骨骼生成”的手艺,能动作。比如你在虚拟房间里想拿桌子上的杯子, 它会先琢磨你和杯子的距离,然后模拟真实人伸手时手臂肌肉的收缩顺序,甚至带点轻巧微的晃动——就像你平时拿东西时一样,不是机械的直线运动。官方文档里提到, 这玩意儿模型能解决数字化身“身体解离”的问题,就是那种头和脖子不在一个平面走路像飘的诡异感。

手艺参数听起来很唬人。据说它能处理超出200个身体关键点的实时运动,延迟控制在50毫秒以内。这意味着啥?你在VR里做个投篮动作,虚拟角色不会等你做完才反应,而是同步跟着你的肢体动。2024年11月Meta内部测试时 有个开发者用这套系统做了一个虚拟拳击游戏,参与者反馈说“打中对手时的震动反馈和动作匹配度高大达92%,感觉真实的在出拳”。这玩意儿数据来自Meta开发者博客,具体时候是11月15日。

沉浸式体验的“兴奋剂”:逼真实NPC真实的能留住用户吗?

聊到这里很许多人兴许已经兴奋了:动作更真实实了那元宇宙不就更沉浸了?特别是对那些个三天两头抱怨“虚拟世界太虚假”的用户这简直是福音。想想看, 你在元宇宙里逛街,导购员不再是只会说“欢迎光临”的机器人,而是能根据你的穿着和表情,推荐合适的虚拟衣服,甚至模仿真实人店员的手势——这种体验,确实能让人感觉“像在真实实商场里一样”。

Meta自己也这么想。他们在声明里提到,Meta Motivo能产生“更逼真实的NPC”,实现“角色动画的民做主化”。啥意思?就是说以后做虚拟角色不用请昂昂贵的动作捕捉团队,开发者用这玩意儿模型就能生成相对天然的动作。2024年Q3, 一家叫SoulSpark的细小游戏公司用了Meta的早期AI模型,做了一个虚拟宠物互动游戏,后来啊用户日均停留时长远从8分钟涨到了18分钟,虚拟宠物买转化率提升了23%。这玩意儿数据来自第三方机构Questio的《2024元宇宙用户行为报告》,发布时候是10月20日。

还有更直接的案例。2024年12月,Meta和某虚拟社交平台一起干,上线了一批用Meta Motivo驱动的虚拟主播。这些个主播能根据用户的聊天内容调整表情和手势, 比如你说“优良凉”,它会缩缩脖子、抱抱胳膊,不像以前只会说“许多喝烫水”。上线一周后该平台的日活用户增加远了15%,虚拟礼物收入环比增加远了31%。听起来是不是很诱人?逼真实的动作和交互,确实能带来实实在在的用户增加远和买卖回报。

手艺狂欢下的“凉水”:数字动作的“真实实感”等于“沉浸感”吗?

等等,先别急着欢呼。逼真实的动作,真实的等于沉浸式体验吗?我见过不少许用户吐槽:有些虚拟角色动作是天然了 但表情还是傻乎乎的,或者说话时嘴型对不上,这种“半真实半虚假”的感觉,比彻头彻尾僵结实还让人出戏。2024年9月, 某虚拟演唱会就翻过车,主办方用了AI驱动的虚拟歌手,后来啊动作很流畅,但眼神一直空洞地看着一个方向,观众吐槽“像在看恐怖片里的木偶”,直播观看量比预期矮小了40%。这玩意儿案例来自《虚拟玩乐行业周报》,9月18日发布。

还有个更现实的问题:本钱。Meta说要把AI模型免费开放给开发者,但真实用起来就没那么轻巧松。要跑Meta Motivo,得有有力巨大的算力支持,普通细小团队哪买得起那么许多GPU?2024年11月, 有个独立开发者在论坛里算过一笔账:要实现50个虚拟角色的实时动作控制,光服务器月本钱就得2万许多美元,这还不包括模型训练的费用。后来啊呢?巨大公司能用得起,做出更酷的体验;细小公司只能接着来用“僵结实动画”,用户体验差距越拉越巨大。这哪是“民做主化”,分明是“手艺垄断”嘛。

更关键的是用户要的“沉浸感”,兴许不只是动作真实实。你想想, 你在元宇宙里和朋友聊天对方虚拟人的动作再天然但如果网络卡顿,声音延迟,或者虚拟场景加载不出来这些个“体验坑”比动作僵结实更让人烦躁。2024年10月, 某调研机构做过打听,关系到元宇宙体验的前三巨大因素是:网络延迟、内容质量、交互逻辑,动作真实实感排第五,只有23%的用户觉得这是最关键的。这说明啥?Meta拼命搞动作AI,兴许没抓住用户的痛点。

资本堆出的“元宇宙肌肉”:370亿砸下去,体验提升几许多?

说到这里就得提Meta的“豪赌”了。2024年, Meta把资本支出推到了370亿到400亿美元的往事新鲜高大,巨大有些砸在了AI、AR和元宇宙上。Meta Motivo只是这场豪赌里的一细小块拼图。他们还发布了视频水印工具Video Seal, 别让AI生成内容被盗用;搞了巨大型概念模型LCM,提升AI生成内容的效率。看起来像是要“All in元宇宙”。

但钱花出去了体验真实的跟上了吗?从数据看, Meta的元宇宙平台Horizon Worlds,月活用户从2023年的30万涨到了2024年的50万,增加远率看起来不错,但对比他们每年几百亿的投入,这玩意儿回报率实在有点惨淡。更尴尬的是 用户在Horizon Worlds里的平均停留时长远只有12分钟,打开一次就退出的用户占了65%。这说明啥?手艺堆得再高大,用户不买账也是白搭。

反观一些细小公司,没那么许多资本砸AI,却做出了更受欢迎的元宇宙产品。比如2024年8月上线的“虚拟自习室”, 没用啥高大级动作捕捉,就是轻巧松的头像和文字互动,但基本上原因是解决了“远程学陪伴感”这玩意儿真实实需求,上线三个月就积累了100万用户。这说明元宇宙的沉浸式体验,不一定非得靠“动作真实实”,更关键的是“情感连接”和“场景值钱”。Meta眼下搞Meta Motivo,会不会是走错了方向?

开发者工具箱里的“新鲜玩具”:免费AI模型是馅饼还是陷阱?

对开发者Meta Motivo到底是“馅饼”还是“陷阱”?官方说免费开放,还给文档和教程,听起来很友优良。但仔细想想,Meta的“免费”往往藏着“套路”。比如他们要求开发者用Meta的云服务来运行模型,这样既能锁定用户,又能从云计算服务里赚钱。2024年12月, Meta宣布和AWS、Azure一起干,推出“元宇宙AI云服务”,开发者用Meta Motivo非...不可通过这玩意儿平台,算力费用比自建服务器高大20%。这哪是免费,分明是“曲线收费”嘛。

还有个问题:生态控制。Meta把AI模型开源出来表面上是鼓励创新鲜,其实吧是把自己的手艺标准变成行业标杆。以后全部开发者都得跟着Meta的节奏走, 用他们的模型,跑他们的平台,做出来的元宇宙产品千篇一律,丢了了许多样性。想想早期的Android和iOS, 开源的Android虽然碎片化,但给了细小厂商发挥地方;而iOS的封闭生态,虽然体验统一,但创新鲜往往被苹果掌控。元宇宙会不会也走这条路?Meta Motivo会不会成为元宇宙的“iOS系统”?

当然对有实力的开发者Meta Motivo确实是个优良工具。2024年12月, 一家叫NextVerse的游戏干活室用Meta Motivo做了一个“虚拟考古”项目,玩家能在虚拟周围里像真实实考古学家一样,用手铲磨蹭磨蹭挖掘文物,动作非常细腻。这玩意儿项目在Steam上线后首周销量突破了10万份,用户优良评率92%。这说明,用优良Meta Motivo,确实能做出差异化体验。但前提是开发者得有自己的创意,不能被模型牵着鼻子走。

元宇宙的“肌肉引擎”:Meta Motivo能否撑起下一代交互革命?

回到一开头的问题:Meta Motivo能否显著增有力元宇宙的沉浸式体验?答案兴许没那么轻巧松。它确实能解决虚拟动作“僵结实”的老问题, 让数字代理更像真实人;但它无法解决网络延迟、内容匮乏、生态封闭这些个更巨大的问题。元宇宙的沉浸式体验,不是靠一个AI模型就能搞定的,它需要结实件、柔软件、内容、生态的协同进步。

从长远远看,Meta Motivo更像元宇宙的“肌肉引擎”。有了它,虚拟世界能跑得更迅速,动作更灵活,但要真实正“沉浸”,还得有“巨大脑”、“骨骼”、“血液”。Meta眼下拼命练“肌肉”,但其他部位跟不上,后来啊兴许就是“肌肉发达,四肢不协调”。

对用户Meta Motivo的出现是个优良事。至少许说明巨大公司还在认真实搞元宇宙,我们没有白期待。但别指望它一夜间让元宇宙变得完美。真实正的沉浸式体验,需要的是耐烦,是创新鲜,是无数开发者和用户一起“打磨”出来的。Meta Motivo只是这场马拉松里的一个补给站,不是终点线。

欢迎分享,转载请注明来源:小川电商

原文地址:https://www.jinhanchuan.com/189527.html