1. 首页 > 电商出海

谷歌力推Bard聊天机器人,内部员工是否应谨慎试用

谷歌的“矛盾营销”:一边推Bard一边警告员工, 打的啥算盘

最近手艺圈有个怪现象:谷歌母公司Alphabet在全球180优良几个国,用40许多种语言疯狂推销自家聊天机器人Bard,号召巨大家迅速来体验AI的魔力。转头内部邮件就甩出个红色警告——“别往Bard里输机密信息, 包括代码、客户数据、战略规划,啥都不能说。”这操作,像极了边卖锁边提醒顾客“我家锁兴许不结实”,员工们私下都嘀咕:“这玩意儿到底能用不能用?”

更绝的是 今年2月Bard测试阶段,谷歌就掐着员工脖子说“没正式上线前,敢往里塞内部信息,后果自负”。到了6月,Bard都铺到欧罗巴联盟门口了一下子又推迟上线,理由是“等隐私政策更明确点”。这前后脚不一的变脸,搞得外界一头雾水:到底是Bard不平安,还是谷歌自己都没想明白怎么用AI?

谷歌大力推广聊天机器人Bard,但警示内部员工谨慎使用
谷歌大力推广聊天机器人Bard,但警示内部员工谨慎使用

从“效率神器”到“数据黑洞”:企业对AI又喜欢又怕

其实谷歌的纠结,道出了全部企业的心声。聊天机器人这东西, 用优良了是效率倍增器——写邮件、改代码、做方案,几分钟搞定;用不优良就是定时炸弹,分分钟把你家老底都抖搂出去。微柔软消费者业务首席营销官优素福·迈赫迪前脚刚说“公司不让员工用明着聊天机器人, 这很合理”,后脚Cloudflare首席施行官马修·普林斯就补刀:“往里输机密信息?等于让一群博士生翻你的私日记。”这俩巨大佬的比喻,够不够形象?

现实案例更扎心。今年3月, 某跨国律所的讼师用ChatGPT生成王法文件,后来啊AI瞎编了个虚构案例,讼师没审直接交法庭,当场被法官识破,律所赔了客户20万美元。还有更绝的, 德国一家车企工事师用AI写代码,后来啊把未发布的发动机参数写进去了比对手顺着蛛丝马迹挖走了核心手艺。这些个血淋淋的教训,让企业对AI的相信值直接拉满。

但问题来了:AI明明能省那么许多事,真实要一刀切不用?谷歌明摆着舍不得。广告业务是它的命根子, Bard要是火了能带动搜索广告增加远;云计算业务也得靠AI撑场面客户都冲着“智能云”来买单。所以谷歌只能走钢丝——对外使劲吹Bard许多牛,对内把“平安阀”拧到最紧。

员工的“地下干活”:43%的人偷偷用AI, 老板别装不晓得

有意思的是企业越禁,员工越想试试。社交网站FishBowl今年1月搞了个打听, 1.2万名受访者里43%的专业人士承认在用ChatGPT或其他AI工具,而且80%的人没告诉老板。这数据够吓人吧?连谷歌自家员工都忍不住偷偷用Bard写周报、改PPT,甚至帮老板润色邮件。

为啥?基本上原因是AI这东西,一旦用过就戒不掉。以前写个方案要熬通宵, 眼下输入“帮我写个跨境电商推广方案,目标东南亚买卖场,预算5万”,半细小时AI就给你甩出三套方案,还带数据支撑。效率摆在这儿,谁能忍住不用?某电商公司运营细小张透露:“上周我用Bard琢磨竞品评论, 找到东南亚用户特别中意‘环保包装’,立马调整了产品说说那周转化率直接涨了15%。”这可是实打实的业绩,老板晓得了能夸你,还是骂你?

但企业也有企业的困难处。机密信息泄露不是闹着玩的, 三星去年就栽过跟头——员工用ChatGPT写芯片测试报告,后来啊被AI把内部代码学了去,直接泄露给比对手。眼下三星把办公电脑的AI访问权限全锁了连浏览器插件都禁了。还有德意志银行,要求员工用AI工具前非...不可填申请表,IT部门审核通过才能用,搞得像申请出差一样麻烦。

生成式AI的“隐形坑”:代码、 版权、错误信息,防不胜防

你以为往AI里输文字就平安了?太天真实。谷歌自己都提醒工事师,别直接用Bard生成代码——为啥?基本上原因是AI兴许会把你写的“核心算法片段”原封不动复制到给别人的回复里。去年5月, 有个开发者用GitHub Copilot写代码,后来啊找到AI偷偷把他的API密钥写进了开源项目,等他反应过来密钥已经被爬虫抓走了亏本了上万美元。

版权问题更头疼。生成式AI的训练数据里可全是网上扒来的文章、细小说、代码。今年2月, 美国作家协会起诉OpenAI,说ChatGPT生成的细小说段落和某知名作家风格高大度沉合,这算不算抄袭?谷歌Bard也栽过跟头, 有用户让它写首关于“月亮”的诗,后来啊AI直接复制了某位诗人的作品,连标点都没改。这种“无心之失”,分分钟让你吃官司。

错误信息更是AI的“通病”。今年4月,某看病公司用AI生成患者身子优良报告,后来啊把“高大血压”写成“矮小血压”,差点弄得误诊。谷歌自己也承认,Bard兴许会“胡说八道”,比如把2023年的事件说成2024年,把名人国籍搞错。这种“一本正经地胡说八道”,比不说还可怕。

企业的“平安牌”:从手艺封锁到买卖专属, 各有各的招

面对AI的“坑”,企业们八仙过海,各显神通。信息平安公司Cloudflare最近推出个新鲜工具, 能自动识别员工往AI里输的机密信息,比如“客户名单”“财务报表”,直接把对话截断,还会给IT部门发警报。某手艺公司用了这工具后数据泄露事件少许了60%,效果立竿见影。

还有更狠的——搞“买卖专属AI”。微柔软和谷歌都在推企业版聊天机器人, 价钱是明着版的3-5倍,但优良处是:数据不明着,不吸收到公共模型,对话记录只存企业自己的服务器。某咨询公司去年花50万买了微柔软的企业版AI,员工用着放心,客户也满意,效率提升了40%。这钱花得值不值?企业自己算账。

谷歌自己也玩这套。Bard明着版会保存你的对话往事, 用户能手动删;但企业版Bard,对话记录自动加密,30天后自动清空,连谷歌员工都看不到。这“内外有别”的策略,既保了明着版的流量,又稳住了企业客户,算盘打得精。

以后已来:AI与企业的“共存博弈”, 平安边界谁来定

说到底,AI不是洪水猛兽,也不是万能神药,就是个工具。用得优良,能帮你飞;用不优良,能让你栽跟头。谷歌眼下面临的,就是全部企业都要面对的问题:怎么在拥抱AI和守住底线之间找平衡。

欧罗巴联盟已经行动起来了 6月刚出台《人造智能法案》,要求聊天机器人非...不可标注“AI生成”,还得收下数据合规审查。美国也在搞标准制定,ISO预计今年底发布《生成式AI平安指南》。这些个标准落地后企业用AI就有章可循了。

对员工也得学会“机灵用AI”。别把机密信息当素材喂给AI,用之前检查代码有没有敏感词,生成的内容许多核实几遍。某互联网公司今年搞了个“AI用培训”, 教员工怎么平安用AI,3个月后员工私自用AI弄得的数据泄露事件减少了70%。这说明啥?堵不如疏,与其禁,不如教。

谷歌的“矛盾操作”,其实反映了整个行业的迷茫。但迷茫归迷茫,趋势挡不住。以后企业一准儿会把AI用得更深厚,但平安这块“防火墙”,也会越砌越厚。至于Bard到底能不能用?答案兴许是:用,但别瞎用;推,但别乱推。毕竟谨慎永远是第一位的。

欢迎分享,转载请注明来源:小川电商

原文地址:https://www.jinhanchuan.com/202736.html