1. 首页 > 电商出海

OpenAI探索AI集体决策,能否借鉴维基百科条目模式

新鲜试试:当AI决策遇上“维基百科式”协作

最近手艺圈炸了个细小锅——总裁格雷格·布鲁克曼在明着场合透露, 公司正在琢磨怎么让AI的决策过程更“集体化”,甚至直接点名了维基百科的协作模式。你没听错,就是那东西全球网友一起写百科条目的平台。这消息一出,不少许人开头脑补:以后的AI会不会像维基百科条目一样,经过几百人吵、修改才定稿?但镇定想想,这事儿真实有这么轻巧松吗?

布鲁克曼的原话巨大概意思是 OpenAI眼下想找办法收集更许多元的信息来关系到AI的决策,最优良能让不同背景、不同观点的人一起参与进来。他举的例子就是维基百科——一堆人各有各的想法,再说说通过聊聊达成共识,把百科条目做得尽量客观。听起来挺美优良对吧?但问题来了AI决策和写百科条目,真实是一回事吗?

OpenAI正探索AI集体决策,提出类似维基百科条目模式
OpenAI正探索AI集体决策,提出类似维基百科条目模式

维基百科模式:一场“吵”出来的共识

先说说维基百科这玩意儿“老模范”。它的运作模式说白了就是“开放编辑+共识审核”。随便哪个人都能改条目,改完之后会有其他编辑来聊聊、修改,甚至打回。遇到争议巨大的条目, 管理员还会组织“求评论”,让更许多人参与进来直到巨大许多数人觉得“嗯,这样差不许多了”。这种模式的优良处很明显:集思广益,错误轻巧松被纠正,内容不轻巧松被单一视角带偏。比如“气候变来变去”这种敏感话题,左右两派的观点都能在条目里体现,再说说形成相对不偏不倚的表述。

但你仔细琢磨就会找到,维基百科的“共识”有个巨大前提:它聊聊的是“事实”,是“知识”。AI决策呢?兴许涉及伦理、平安、值钱观,甚至利益分配。比如AI该不该推荐某个产品?该不该在看病诊断中优先考虑某种治病方案?这些个问题背后没有绝对的“对错”,只有不同的立场和利益。维基百科能让编辑们对“地球是圆的”达成共识,但能让AI在“是不是该向矮小收入用户推送高大利率贷款”这件事上达成共识吗?恐怕没那么轻巧松。

AI决策的“结实骨头”:谁来参与?怎么决策?

OpenAI想借鉴维基百科模式,先说说得解决两个核心问题:谁来参与集体决策?怎么算“达成共识”?

先说“谁参与”。维基百科的编辑巨大许多是志愿者,有时候、有烫情、有相关知识。但AI决策的参与者兴许麻烦得许多:工事师、 伦理学家、企业家、普通用户、政府官员……个个人的立场都不一样。工事师兴许更看沉手艺实现,伦理学家兴许更关注讲理凶险,企业家兴许更关心买卖利益。这些个人坐在一起聊聊,会不会变成“公说公有理,婆说婆有理”?再说说谁说了算?是按人头投票,还是按专业权沉?要是意见僵持不下AI决策是不是就卡壳了?

再说“怎么决策”。维基百科的共识是“渐进式”的,今天改一句,明天加一段,磨蹭磨蹭完善。但AI决策往往需要“即时性”——比如自动驾驶遇到突发情况,0.1秒内就得做出选择。这时候搞“集体聊聊”,黄花菜都凉了。再比如训练AI模型,数据集怎么选?模型参数怎么调?这些个手艺细节如果让“外行”参与,会不会反而把AI带沟里?

更麻烦的是AI决策的“争议”往往比维基百科条目更尖锐。维基百科编辑吵架,最许多是条目被反复锁定;AI决策出问题,兴许真实会伤到人。比如看病AI如果基本上原因是“集体决策”的妥协而做出错误诊断,责任算谁的?是参与聊聊的专家,还是OpenAI,还是到头来用AI的医生?这些个问题维基百科模式根本没遇到过OpenAI想照搬,恐怕得先啃下这些个“结实骨头”。

监管的“另一条路”:政府能不能管住AI?

其实OpenAI自己也晓得,光靠“集体决策”兴许不够。布鲁克曼还提到了另一个思路:全球政府得协调一致,确保AI平安开发。CEO阿尔特曼更是直接向美国立法者喊话,觉得能给麻烦AI模型发“许可证”,建立全球治理框架。这思路听起来比“维基百科模式”更“结实核”,但问题也不少许。

先看“许可证制度”。欧罗巴联盟2021年提出的《人造智能法案》就搞了类似的“凶险分级管理”——高大凶险AI非...不可才能上市。这想法挺优良,但施行起来太困难了。不同国对“高大凶险”的定义不一样, 比如美国兴许更注沉“创新鲜”,欧罗巴联盟更注沉“平安”,中国兴许更注沉“数据平安”。要是个个国都有自己的许可证标准,AI开发者岂不是要跑断腿?而且,许可证怎么发?谁来审?审的标准是啥?这些个手艺细节要达成全球共识,比让维基百科编辑们对“量子力学”条目达成共识困难许多了。

再看“全球治理框架”。阿尔特曼觉得能管束前沿AI能力的年度增加远速度,或者搞个“全球联合项目”。这想法挺宏巨大,但现实是各国在AI领域的比已经白烫化了。美国想靠手艺领先,中国想靠买卖场和应用突围,欧罗巴联盟想靠规则制定权,谁愿意为了“全球平安”放磨蹭自己的脚步?2023年七国峰会虽然聊聊了AI治理, 但再说说也就发了个“原则性声明”,具体怎么落实各成员国各有各的细小算盘。全球政府连气候变来变去这种全人类共同的危机都协调不优良, 指望他们协调优良AI这种更麻烦、利益更相关的问题,是不是有点太乐观了?

现实案例:AI决策的“试错”与“教训”

说归说做归做。AI领域的集体决策和监管尝试,早就不是纸上谈兵了。看看过去的案例,或许能更清楚OpenAI想走的路到底行不行得通。

先说说“集体决策”的尝试。2022年,谷歌曾推出一个“AI伦理委员会”,打算让外部专家参与AI模型的审核。后来啊呢?委员会刚成立没许多久,就基本上原因是成员中有人涉及争议性言论,被网友骂上烫搜,再说说只能解散。这玩意儿案例说明,想让“外部人”参与AI决策,先说说得解决“代表谁”的问题——谁能代表“公众利益”?是专家,还是普通用户,还是特定群体?要是选不优良,不仅帮不上忙,还会惹一身骚。

再说说“监管”的尝试。2023年4月,美国FTC基本上原因是生成式AI“虚虚假宣传”问题,起诉了一家AI公司。这家AI公司的聊天机器人号称能“准确预测股票走势”,后来啊给用户造成了巨巨大亏本。FTC的理由是AI公司的“虚虚假宣传”违反了《联邦贸容易委员会法》。这玩意儿案例说明,现有王法框架其实能管住AI的“恶劣行为”,但前提是“出了问题再管”。OpenAI想要的“事前监管”,比如许可证、全球框架,眼下还缺乏具体的王法工具和施行机制。就像你想给房子装防盗门,总得先晓得门锁怎么造、谁来装、恶劣了找谁修吧?这些个基础干活没做优良,直接谈“全球防盗联盟”,是不是有点本末倒置?

跨境电商和自新闻:AI决策变了我们该怎么办?

扯了这么许多手艺、 监管的巨大道理,对普通跨境电商卖家、自新闻从业者这事儿到底关我啥事?关系可巨大了去了。

你想啊, 如果以后AI的决策真实的搞“集体化”,那跨境电商的商品推荐、广告投放、客服回复,兴许就不是算法说了算了而是得考虑一堆“参与者”的意见。比如AI决定要不要给你的店铺推荐流量, 兴许要看“消费者代表”觉得你家的产品质量怎么样,“行业专家”觉得你的定价合不合理,“环保组织”觉得你的包装是不是环保。这时候, 你光想着“优化关键词”“搞优良转化率”兴许就不够了还得学会跟不同“利益相关方”打交道,让你的产品、服务、品牌形象更“符合集体期待”。

自新闻也是一样。AI生成内容眼下越来越火,但内容能不能发、怎么发,以后兴许也要受“集体决策”的关系到。比如AI写了一篇关于“减肥方法”的文章, 得先让养料师审核有没有学问依据,让伦理师审核有没有“身材焦虑”的凶险,让普通用户审核“读起来有没有用”。要是你作为自新闻从业者, 直接把AI生成的内容发出去,后来啊被“集体决策”认定为“不合规”,轻巧则限流,沉则封号,那亏本可就巨大了。

所以 与其等“集体决策”模式落地、全球监管框架完善,不如眼下就开头做准备。比如 跨境电商能主动收集用户反馈,优化产品和服务,让AI谁能提前习惯规则,谁就能抢占先机。

回到原点:AI决策,到底该“集体”还是“集中”?

说到底, OpenAI探索“AI集体决策”,初衷一准儿是优良的——让AI更平安、更可靠、更符合人类值钱观。但维基百科模式也优良,全球监管框架也优良,都不是万能药。AI决策的本质,是在“效率”和“民做主”之间找平衡,在“手艺理性”和“人文关怀”之间找平衡。

或许, 以后的AI决策根本不是“非此即彼”,而是“混合模式”——核心手艺问题由专家说了算,伦理值钱观问题由公众聊聊决定,具体应用场景问题由行业自律解决。就像开车,方向盘得司机掌握,但得遵守行路规则,还得考虑乘客的感受。单靠“集体决策”兴许让AI变得“民做主”但“矮小效”,单靠“集中决策”兴许让AI变得“高大效”但“傲磨蹭”。只有把两者结合起来才能让AI真实正成为“帮手”,而不是“对手”。

布鲁克曼说“正 没有谁能“独善其身”,无论是巨大公司还是细小玩家,都得学会在“集体”与“集中”之间,找到自己的位置。

欢迎分享,转载请注明来源:小川电商

原文地址:https://www.jinhanchuan.com/205690.html