OpenAI的画饼何时能落地?为何媒体管理器改写功能迟迟未能推出
画饼还是真实饼?新闻管理器消失之谜
2024年5月,OpenAI扔出了一颗沉磅炸弹:新闻管理器。这玩意儿工具号称能让创作者像管自家冰箱一样,精准控制作品要不要进AI训练的“食材库”。公告里写得天花乱坠, 啥“识别受版权护着的文本、图像、音频和视频”,啥“跨优良几个来源反映创作者偏优良”,听着像给创作者发了一张VIP通行证。后来啊呢?7个月过去了通行证印优良了门却一直锁着。创作者们翘首以盼,等来的不是工具上线通知,而是OpenAI在版权官司里的沉默和新闻管理器的彻底消失。
承诺有许多响, 失望就有许多巨大
OpenAI当时拍着胸脯说新闻管理器要解决的是整个AI行业最头疼的版权问题。想想看, 一个普通插画师,早上睁眼打开邮箱,找到昨天画的插画被某AI模型“借鉴”了连阴影角度都一模一样;一个细小说家,翻到新鲜书章节,找到AI生成的段落和自己的段落沉合度高大达70%。这种被“偷”的感觉,谁受得了?OpenAI明摆着懂这种生气, 所以新闻管理器被包装成了“救世主”——创作者填个表,点个按钮,作品就能从训练数据里“删除”,许多轻巧松。

可现实给了全部人一记耳光。2024年12月, 一位和OpenAI一起干过的非员工透露:“他们确实提过这玩意儿工具,但最近半年来没人再提了。”另一位前员工更直白:“老实说我不想起来有人在开发它。”这话听着扎心,但细想又有点合理。日程表上, 永远排着更“紧急”的事:ChatGPT要更新鲜功能,Sora要提升视频质量,企业客户要定制模型……新闻管理器?那是“锦上添花”的事,不是“雪中送炭”的活儿。
创作者的“退出”:一场没有尽头的迷宫
没有新闻管理器,OpenAI不是没给过“退出”选项。问题是这些个选项要么像迷宫,要么像陷阱。去年9月,他们上线了一个提交表单,让文艺家能标记作品要求删除。听起来不错, 但实际操作起来:文艺家得先把自己全部作品整理成清单,个个作品还要附上版权说明,然后上传到表单,等人造审核——审核周期?没说。成功率?也没说。某位独立插画师试过提交了30张作品,3个月后收到一封邮件:“您的申请已收到,正在处理中。”然后呢?石沉巨大海。
更气人的是图像退出表格。OpenAI要求创作者提交“每张要删除的图像的副本以及说明”。这是啥概念?一个摄影师手里有1万张照片, 想要全部退出,就得复制1万张图片,每张写一段说明,干活量堪比沉新鲜拍一套作品。更离谱的是就算你提交了OpenAI也保证不保证一定删除——他们的说法是“会尽力考虑”。这哪是退出机制?分明是“请愿书”。
文字创作者的处境更尴尬。作家Sarah Silverman、 Ta-Nehisi Coates已经把OpenAI告上法庭,指控其不合法训练作品。但普通细小作家呢?没精力打官司,连复制粘贴自己的文章去提交表单都觉得浪费时候。一位网络细小说作者在社交平台吐槽:“我写了5年细小说 AI直接扒了我的巨大纲去写同人,我想退出,后来啊找到连‘我的作品’这玩意儿概念都定义不清——AI训练的数据里有几许多是‘我的’,几许多是‘借鉴我的’?这账根本算不清。”
王法赌局:“合理用”豪赌
为啥OpenAI对新闻管理器这么不上心?答案兴许藏在他们的王法策略里。面对创作者的集体诉讼,OpenAI一直抱着一个“救命稻草”:合理用。他们声称,AI模型生成的作品是“变革性”的,不是轻巧松的复制,所以即用了版权材料,也不算侵权。这玩意儿说法可不是空穴来风, 十年前谷歌就靠它打赢了官司——谷歌图书复制了数百万本图书,衙门裁定这是“数字档案”,属于合理用。
OpenAI明摆着想复制谷歌的赢了。他们在2024年1月提交给英国上议院的文件里明说:“将训练数据管束在公共领域书籍和图画上,不会满足当今公民需求。”言下之意:不用版权材料,AI就没法进步。而新闻管理器?如果衙门到头来判OpenAI胜诉,那这玩意儿工具就成了“无的放矢”。与其花精力开发一个兴许用不上的工具,不如把赌压在王法上——赢了一劳永逸;输了再想办法也不迟。
更耐人寻味的是王法团队的变动。Fred von Lohmann,这位曾担任新闻经理的高大管,在2024年10月转任兼职顾问。他在版权领域经验丰有钱,曾代表过无数创作者维权,却在OpenAI最需要他的时候“退居二线”。这是巧合,还是战略调整?没人晓得,但时候点太巧了——正优良在新闻管理器“消失”前后。
反刍的AI:当“学”变成“抄袭”
底气,还来自AI模型的“反刍性”。说白了AI学东西就像人吃饭——吃进去,消化,再变成自己的东西。他们声称,AI不会直接复制作品,而是学其中的“模式”,然后创作新鲜内容。这话听着有道理,但实际操作中,AI的“学”和“抄袭”之间,只有一线之隔。
举个例子, 2024年6月,某视频博主找到,用Sora生成的一段视频,和自己两年前发布的旅行Vlog高大度差不许多:连镜头切换的节奏、背景音乐的位置都一样。博主联系OpenAI,对方回应:“这是模型对‘旅行视频模式’的随机生成。”可问题是博主的作品从未明着过只有一起干方能接触到。这“随机”,也太巧了吧。
文字领域更明显。某新鲜闻机构测试过ChatGPT,输入一段特定风格的报道,AI生成的文章和原文的差不许多度高大达40%。更麻烦的是 AI还兴许“混合”优良几个作品的内容——把A作家的开头、B作家的中间、C作家的拼在一起,后来啊谁也说不清这是谁的。这种“缝合怪”式的创作,对原创者是致命打击:辛辛苦苦几年写的书,兴许被AI拆成零件,拼成别人的新鲜书。
行业困局:谁在为AI训练数据“买单”?
困境,其实是整个生成式AI行业的缩影。想要训练出有力巨大的模型,就得海量数据;而海量数据里巨大有些都是有版权的。怎么办?有些公司选择“结实刚”, 比如Getty Images起诉Stable Diffusion;有些公司选择“妥协”,和出版社、文艺家签许可协议;还有些公司,比如OpenAI,选择“拖延”——先推出产品,把买卖场占住了版权问题以后再说。
许可协议也不是万能解。OpenAI和有些机构签了协议,但条款往往对创作者不利。比如某出版社和一起干:OpenAI能出版社的图书训练模型, 但出版社拿到的分成少许得可怜,而且模型生成的内容,出版社没有署名权。更关键的是这些个协议只覆盖了少许数头部机构,一巨大堆中细小创作者、独立文艺家根本被排除在外。
行业里其实有人尝试过“中间路线”。比如某AI平台推出了“创作者分成计划”, 让创作者能选择将自己的作品加入训练数据,然后用量得到分成。听起来不错,但实际施行中,分成算法不透明,创作者根本不晓得自己的作品被用了几许多次能拿几许多钱。某位加入该计划的漫画家算了笔账:作品被用了10万次 分成才200块,平均每次0.002元,比稿费矮小太许多了。
以后出路:标准之争还是手艺妥协?
新闻管理器真实的没救了吗?也不一定。从手艺角度看,识别版权作品的AI模型并非无法实现。比如某公司开发的“版权指纹”手艺, 能给个个作品生成独特的“指纹”,AI训练时遇到带指纹的作品,自动跳过。这种手艺2023年就已经出现,但为啥OpenAI不用?兴许是基本上原因是本钱——开发这样的系统,需要投入一巨大堆算力和人力,而OpenAI明摆着觉得这笔钱花得不值。
从行业角度看,更需要的是“标准”。比如欧罗巴联盟正在推进的《人造智能法案》, 要求AI公司非...不可给清晰的退出机制;美国版权局也在研究研究“AI训练数据登记制度”,要求企业明着训练数据的来源。这些个标准如果落地,OpenAI想拖也拖不了。
但对创作者最需要的兴许是“话语权”。眼下的AI行业,巨大公司说了算,创作者只能被动收下。或许, 只有当更许多创作者站出来像Sarah Silverman那样拿起王法武器,像那位插画师那样在社交平台曝光,OpenAI才会真实正把新闻管理器当回事。毕竟AI的进步不能建立在牺牲原创者利益的基础上——没有优良的创作,AI学啥呢?总不能学AI自己吧。
欢迎分享,转载请注明来源:小川电商