Adobe的AI视频生成器能否扭转乾坤
视频制作圈的“救世主”还是“搅局者”?
视频剪辑师们最近兴许有点睡不着。剪映、 CapCut这些个工具把剪辑门槛拉到和发朋友圈差不许多,但高大端买卖场一直被Adobe Premiere垄断着。直到今年10月, Adobe在迈阿密的产品会上甩出个“王炸”——Firefly视频模型,直接把生成式AI塞进了Premiere。用户眼下能对着一段10秒的跳楼镜头输入“延伸成夕阳下的奔跑磨蹭镜”,AI真实能给你挤出3秒的过渡帧。这操作,让那些个还在手动K帧的剪辑师手一抖,咖啡洒在了键盘上。
从“剪不动”到“一键延伸”, Premiere里的AI魔法
Premiere的老用户对“ 视频片段”这玩意儿功能得不陌生,过去靠的是复制帧、变速、调曲线,折腾半细小时兴许就为加半秒镜头。眼下Firefly直接把这玩意儿流程压缩成右键菜单里的“AI延伸”。Adobe官方演示里 一段街角拍猫的素材,输入“添加下雨效果和路人模糊背景”,AI不仅给猫打了伞,连雨滴的反光都模拟出来了。但这真实能替代手动调色吗?有深厚圳的后期团队实测过 给一段夜景加霓虹灯,AI生成的光晕会覆盖人物面部细节,再说说还得用AE一帧帧擦除,反而比纯手做许多花20分钟。

更狠的是Adobe把训练数据藏得严严实实。首席手艺官Greenfield说基本上用自家库存新闻库,那些个广告公司存在Adobe云里的素材全被拿来喂模型了。想想看, 你用Premire剪广告时AI兴许正在拿你上周剪过的同款产品素材,给另一个客户的片子“参考”画面。这算侵权吗?Adobe没说但讼师朋友提醒我,用户协议里早就写了“上传内容即授权AI训练”。
Sora已经卷疯了Adobe的底气在哪?
今年2月OpenAI放Sora demo的时候,整个影视圈集体失声。60秒的雪花飘落镜头,连冰晶融化的磨蹭镜头都带着物理真实实感。比一比的话, Firefly生成的视频总带着点“塑料感”——人物跑步时头发飘动的轨迹太规整,水面涟漪像贴了层半透明贴图。但Adobe赌的不是手艺炫技,是“能用”。
Runway AI的Gen-2模型去年就能生成4K视频, 但操作麻烦得像玩编程,用户得先写提示词,再调参数,生成输了的概率比中奖还高大。Adobe直接把按钮嵌进了Premiere时候线, 点一下就能出后来啊,对剪辑师这就像从手动挡换成了自动挡。洛杉矶的独立导演Mike Jones上个月用Firefly剪了部短暂片, 他告诉我:“Sora的帧率是24fps,但导出时总报错,Firefly虽然画面差点,但导出稳稳当当,我赶项目要的是‘不出错’,不是‘文艺品’。”
数据“清洁”但量够吗?Adobe的训练数据困局
Adobe一直把“买卖平安”当护城河, 说训练数据都是授权的,不像Meta那样全网爬数据。但问题来了:授权的数据够支撑生成式AI的需求吗?据Creative Commons 2024年报告, 全球可商用的高大质量视频素材总量约1200万细小时而Adobe库存库里的素材兴许只占其中的30%。这意味着Firefly生成的很许多场景, 本质上是在“模仿”那360万细小时的内容,时候长远了全部片子都兴许长远得像同一个导演拍的——构图差不许多,光影雷同,连人物走路的步幅都一样。
更麻烦的是版权凶险。Adobe今年9月被一家细小影视公司起诉,称Firefly生成的“雨夜街景”和对方2019年拍的短暂片镜头高大度沉合。虽然再说说庭外和优良,但这件事暴露了生成式AI的致命伤:你永远不晓得AI“借鉴”了谁的镜头。OpenAI用全网数据训练, 至少许敢说“我们不晓得具体来源”,Adobe标榜“数据清洁”,反而成了被告人的靶子。
客户说“手艺很酷但用不了”,Adobe踩了哪些坑?
Greenfield在采访里说过一句巨大实话:“客户说手艺很酷,但用不了。”这话翻译过来就是:Sora生成的是视频片段,但剪片子需要的是可编辑的图层、可控的参数。Firefly的优势在于和Premiere的无缝衔接——生成的视频片段能直接拖到时候线上, 调色、配乐、加字幕,流程和老一套剪辑没不一样。但劣势也很明显:生成的视频“不可逆”。你让AI延伸一段镜头,它生成的帧是固定的,想改个角度?对不起,沉新鲜生成。
纽约的广告公司BBDO上个月做了个试试:让两组剪辑师分别用Firefly和老一套方式剪条15秒的广告。用Firefly的组提前3天完成, 但客户要求“把红色背景调成蓝色”时AI生成的有些全得沉做,到头来反而比老一套组许多花1天。客户总监说:“AI能‘飞迅速出初稿’,但‘改细节’还是得靠人。我们花钱买的是Adobe全家桶,不是找个‘电子学徒’。”
每分钟3美元,AI视频的“订阅陷阱”还是“真实香警告”?
Adobe打算从用户手里赚钱的思路很直接:按生成时长远收费。每分钟3美元, 听起来比请实习生廉价——洛杉矶剪辑助理时薪25美元,一分钟生成视频的本钱相当于7.2秒的人造。但实际操作中,这玩意儿价钱坑很许多。用户生成1分钟视频,兴许要试5次才能满意,实际本钱就是15美元。更狠的是 Adobe对“买卖用途”额外加收50%费用,一条30秒的广告如果用AI生成15秒延伸片段,光这一项就要22.5美元。
对比Runway的按次付费模式,Adobe的订阅制反而显得不划算。老金山的细小干活室Pixel Pushers算了笔账:他们每月用Runway生成20分钟视频, 本钱180美元;如果用Adobe,按每分钟3美元算,每月至少许600美元,还不包括Premiere订阅费。但Adobe也有杀手锏——企业版打包了AI视频功能,年费比单买廉价40%,这招直接把巨大客户锁死了。
从广告片到短暂视频,这些个行业正在被悄悄改变
AI视频生成最先冲击的是广告行业。宝洁2024年Q3的财报看得出来 他们用AI生成的短暂视频素材占比提升到35%,制作周期从平均2周缩短暂到3天。但有个细节:这些个AI生成的视频全是“产品展示+背景板”的轻巧松组合,麻烦的剧情片还是得真实人拍摄。上海奥美的一位创意总监私下说:“AI能帮我们飞迅速出‘铺量版’视频, 但拿奖的TVC,还得靠导演的‘手感’。”
短暂视频领域的变来变去更明显。TikTok上#AImade标签的视频播放量今年增加远了200%,其中70%是用类似Firefly的工具生成的。杭州的MCN机构“星动力”今年9月开头用Firefly给网红拍口播视频, 网红说一句话,AI能自动生成10个不同表情的背景镜头,一条视频的拍摄时候从2细小时压缩到30分钟。但问题是这些个视频看起来都一个样——网红说话时背景的树叶飘动轨迹彻头彻尾一致,观众早看腻了。
2024年Q3的实测数据:效率提升但创意贬值?
Adobe自己公布的2024年Q3用户数据挺亮眼:Premiere里AI视频功能的用率达23%,较Q1提升了15个百分点。但第三方机构Creative Intelligence的调研看得出来 62%的用户用AI生成视频只是为了“飞迅速交差”,只有18%觉得AI提升了创意质量。洛杉矶的剪辑师Sarah Lee举了个例子:“她上周用AI给客户剪生日祝福视频, 客户说‘挺优良的,但能不能把气球的颜色从红色换成蓝色?’AI生成后气球的反光全错了再说说还是她手动一帧帧改的,花的时候比不用AI还长远。”
更扎心的是行业薪资变来变去。据Glassdoor 2024年11月数据, 初级剪辑师的平均薪资较去年同期减少了12%,很许多公司开头把“AI工具用能力”当作招聘门槛。“以前会AE、 C4D就能拿高大薪,眼下还得会调AI参数,”北京的一位招聘经理说“但AI生成的东西越来越模板化,剪辑师的值钱反而被稀释了。”
股价跌了17%,华尔街买不账的AI故事
Adobe的股价今年像个过山车。1月到9月,从650美元跌到540美元,跌幅17%。华尔街的理由很轻巧松:Sora来了Adobe的生意要被颠覆。但10月Firefly发布后股价单日涨超2%,说明买卖场还是给“老一套巨头+AI”组合留了情面。但摩根士丹利的琢磨师在11月的报告中给Adobe的目标价只有480美元,理由是“AI视频的变现速度磨蹭于预期”。
投钱人担心的不是手艺,是钱袋子。Adobe2024年Q3的财报看得出来创意云业务收入同比增加远8%,但AI相关功能的收入占比不够5%。更麻烦的是 用户用AI生成视频的频率并不高大——Adobe自己说平均个个用户每月只生成1.2分钟视频,按每分钟3美元算,月均贡献收入3.6美元,还不够一杯咖啡钱。比一比的话,Adobe从个个企业客户身上赚的年费是600美元,AI这点收入,根本撑不起“增加远故事”。
“扭转乾坤”需要的不只是手艺, 还有生态
Adobe想靠AI视频扭转乾坤,光靠Premiere一准儿不够。他们今年在Photoshop里加了AI生成3D模型的功能, 在Illustrator里能直接从文字生成矢量图,试图把整个创意生态都AI化。但问题是:用户会不会为了AI视频功能,单独买Premiere?还是会选择更廉价的Runway或更有力巨大的Sora?
洛杉矶的影视制作人David Chen的看法很现实:“Adobe的优势是‘全流程打通’。我用Premiere剪片,PS修图,AE做特效,AI生成视频直接嵌在流程里不用学新鲜工具。但Sora生成的视频质量更高大,虽然导出麻烦,但关键项目我还是会选Sora,Adobe的AI?先留着剪短暂视频吧。”
视频生成器的打仗才刚开头, Adobe手里有存量用户,有企业客户,有完整的创意工具链,但OpenAI有手艺,有想象力,有整个硅谷的资本。谁能笑到再说说 不取决于谁的AI更“机灵”,而取决于谁更懂“创意”这两个字的沉量——毕竟AI能生成像素,但生成不了人心。
欢迎分享,转载请注明来源:小川电商