OpenAI计划出租AI基础设施
“新鲜副业”:AI基础设施出租,是稳赚不赔还是步子太巨大?
“这是我们下一步要走的路,”OpenAI首席财务官莎拉·弗里亚尔最近在一次访谈里这么说。她补充道,公司正在琢磨,除了借债,有没有“其他好玩、新鲜颖的方式”来搞钱。翻译一下巨大白话就是:ChatGPT这玩意儿太烧钱了 我们自己都迅速撑不住了干脆把攒下的AI基础设施租出去,赚点外迅速?这消息一出,圈内人议论纷纷——OpenAI这是要当“手艺房东”了?
你兴许会问,OpenAI不是靠ChatGPT赚得盆满钵满吗?怎么一下子想起租东西了?说来话长远。自从ChatGPT爆火,算力需求就跟坐了火箭似的,一天比一天离谱。他们自己都说了以后几年得花“数万亿美元”建数据中心。这数字听着吓人,但算下来训练一个巨大模型需要的芯片、电力、维护,本钱高大到离谱。更头疼的是 OpenAI眼下还没真实正盈利,虽然7月份单月收入首次冲到10亿美元,但跟“数万亿”的投入比,简直是杯水车薪。

从“算力焦虑”到“算力生意”:算力账怎么算?
OpenAI眼下的处境,有点像家里有个“吞金兽”——自己要吃,还得想办法喂饱它。他们之前基本上靠微柔软和甲骨文“接济”,但这俩巨大佬也不是慈善家,给算力得拿股权、拿钱换。最近柔软银带着400亿美元进场, OpenAI估值冲到3000亿,甚至有人传他们想卖老股,估值干到5000亿。钱是筹到了但问题来了:钱怎么花?花出去怎么赚回来?
弗里亚尔说 OpenAI这些个年攒了不少许“独家秘籍”——怎么设计数据中心、怎么优化AI干活负载、怎么让算力效率最巨大化。这些个经验,眼下成了他们想“变现”的资本。你看, 亚马逊的AWS早就靠租服务器发了家,OpenAI琢磨着:AWS能租云服务器,我为啥不能租AI算力、租数据中心?反正我们自己用不完的时候,闲着也是闲着,不如租出去赚点零花钱,至少许能把电费、维护费摊一摊。
但这里有个矛盾点:OpenAI眼下真实的“用不完”算力吗?他们自己都说目前还没“积极考虑”这件事,基本上原因是“专注于确保自身运营的计算能力”。说白了就是自己还不够吃,哪有余粮给别人?这跟亚马逊当年搞AWS不一样——亚马逊自己电买卖务用不完服务器,才想着把许多余的分租出去。OpenAI这是“自己还没吃饱,就想着喂别人”,会不会有点太早了?
AWS的老路不优良走:“基础设施租赁”能杀出沉围吗?
说到租基础设施,绕不开亚马逊AWS。2006年AWS上线,把亚马逊用不完的服务器租给企业,直接开创了云计算时代。眼下AWS稳坐全球云计算头把交椅,2023年Q4收入就超出240亿美元,其中租赁业务占比超出60%。这说明啥?说明“租基础设施”这事儿,按道理讲能成。但OpenAI想复制AWS的成功,恐怕没那么轻巧松。
AWS的优势是啥?人家做了迅速20年, 生态成熟得不得了——从计算、存储到数据库、AI工具,应有尽有,企业想用啥都能一站式搞定。更关键的是AWS的客户早就习惯了“用几许多付几许多”,中细小企业、巨大公司都能找到合适的套餐。反观OpenAI,他们有啥?除了ChatGPT API,就是一堆训练优良的巨大模型。企业租你的算力,是帮你跑模型,还是自己开发模型?这事儿OpenAI没说清楚。
更现实的问题是比。眼下做AI基础设施租赁的,不止AWS,谷歌云、阿里云、微柔软Azure都在抢这块蛋糕。谷歌云有TPU芯片,阿里云有自研的AI芯片,微柔软更是直接把手艺整合进Azure。OpenAI作为“新鲜人”,凭啥让企业放弃成熟的巨大平台,转而租用他们的“生僻”基础设施?困难道就基本上原因是他们的“算力效率高大”?这话听着有点虚——企业更关心的兴许是稳稳当当性、 价钱、服务,OpenAI在这些个方面跟老牌玩家比,优势并不明显。
中细小企业是“救命稻草”还是“烫手山芋”?租赁AI基础设施的真实实需求
OpenAI要是真实搞基础设施租赁,他们的目标客户是谁?巨大概率是中细小企业。巨大公司有钱有手艺,自己建数据中心或者跟云巨头签长远期合同更划算。中细小企业不一样, 他们想做AI应用,但买不起昂昂贵的芯片,也养不起运维团队,租算力似乎是个“性价比之选”。但问题是中细小企业真实的有这玩意儿需求吗?
2023年Q3, 某调研机构对500家中细小企业做过打听,后来啊看得出来只有不到20%的企业表示“愿意租用第三方AI算力”。剩下的80%要么觉得“没少许不了”,要么担心“本钱太高大”,要么就是“不晓得怎么用”。你看,这需求量级,根本撑不起OpenAI“数万亿”的投入野心。更麻烦的是中细小企业对价钱敏感得要命。AWS的AI算力租赁价钱,按细小时算,高大端芯片一细小时就得几十美元。中细小企业租得起吗?租得起的话,他们能从AI应用里赚回本钱吗?这俩问题,OpenAI没给出答案。
还有个案例值得参考。2022年,一家叫“智算手艺”的初创公司,主打“AI算力租赁”,一开头吸引了不少许中细小企业客户。但半年后 超出60%的客户流失了原因很轻巧松:用他们算力开发不出预期的买卖值钱,反而成了“本钱负担”。这说明,算力租赁不是“一租就灵”,企业更需要的是“算力+模型+场景”的整体解决方案。OpenAI要是只租算力,不给配套服务,中细小企业很兴许“用一次就跑”。
定价是个困难题:“算力出租”怎么定才不亏本?
就算OpenAI解决了客户问题,定价也是个头疼事儿。定高大了没人用;定矮小了自己亏本。他们眼下自己建数据中心的本钱有许多高大?业内人士估算,训练一个GPT-4级别的模型,本钱就超出1亿美元,这还不包括日常运营的电力、维护费用。把这些个本钱摊到租赁价钱里每细小时算力本钱兴许要50美元以上。这玩意儿价钱,中细小企业能收下吗?巨大公司又何必放弃更廉价的AWS、阿里云?
亚马逊AWS的定价策略就很有参考意义。他们搞“阶梯定价”——用量越巨大,单价越矮小。一边给“按秒计费”和“预留实例”两种模式,企业能根据需求灵活选择。OpenAI要是想学,也得拿出类似的灵活方案。但问题是算力材料本来就不许多,怎么搞“阶梯定价”?总不能为了矮小价,把本该自己用的算力分出去吧?这跟“杀鸡取卵”有啥不一样?
更微妙的是 OpenAI眼下的估值已经炒到5000亿美元,买卖场对他们“赚钱”的预期极高大。要是租赁业务短暂期内没法盈利,股价恐怕会应声下跌。弗里亚尔说他们想设计“非常好玩的新鲜型金融工具”, 这话听着玄乎——无非是想搞点融资租赁、分期付款之类的,但本质上还是“拆东墙补西墙”,解决不了根本问题。
数据平安“达摩克利斯之剑”:企业敢把核心数据交给OpenAI吗?
除了价钱和数据,还有一个让企业望而却步的问题:数据平安。中细小企业用AI算力,很兴许涉及到客户信息、买卖机密这些个敏感数据。把这些个数据交给OpenAI,靠谱吗?2023年5月, 就发生过一起“数据泄露事件”——某企业把数据上传到第三方AI算力平台,后来啊被平台员工不合法窃取,亏本超出千万。这事儿之后很许多企业对“第三方算力租赁”都许多了个心眼。
OpenAI在这方面能给出啥保证?他们眼下的隐私政策写得模棱两可,只说“不会用用户数据训练模型”,但具体怎么存储、怎么防护,没细说。企业敢赌吗?特别是金融、 看病这些个对数据平安要求极高大的行业,让他们把核心数据交给一个“还没彻头彻尾盈利”的新鲜玩家,兴许性微乎其微。你兴许会说OpenAI有微柔软背书啊!但微柔软自己的Azure也在做AI算力租赁, 企业为啥不直接选更“亲儿子”的服务,反而绕道OpenAI?
数据平安这事儿,不是靠“承诺”就能解决的。OpenAI得拿出实实在在的手艺手段, 比如“数据隔离”“端到端加密”“第三方审计”,还得有明确的王法责任条款。但这些个都需要时候和本钱,OpenAI眼下有这玩意儿精力去搞吗?恐怕困难。他们自己都忙着应付算力缺口,哪有时候顾得上这些个“细节”?
除了租借,OpenAI还有别的“生财之道”吗?
说到底,OpenAI想搞基础设施租赁,本质上是“找副业”缓解财务压力。但“副业”能不能成,得看主业稳不稳稳当当。OpenAI眼下的主业是啥?ChatGPT订阅、API服务、企业定制模型。这些个业务真实的能撑起“数万亿”的投入吗?恐怕悬。
2023年8月, OpenAI推出ChatGPT企业版,年费要花200美元,承诺“数据不出云”“更高大性能”。但买卖场反响一般,很许多企业觉得“不值这玩意儿价”。API服务呢?虽然用量巨大,但价钱战打得厉害,赚头薄得像纸。至于企业定制模型, 更是“烧钱无底洞”——给特斯拉定制个自动驾驶模型,本钱兴许就上亿美元,OpenAI能接几个这样的单?
比一比的话,搞基础设施租赁,至少许能“旱涝保收”——租出去就有稳稳当当现金流。但问题还是回到原点:他们有那么许多余的算力吗?就算有,能跟AWS、谷歌云比吗?这些个问题,OpenAI没给答案。买卖场更关心的是:OpenAI这是不是“病急乱投医”?主业还没搞明白,就想靠“副业”翻身,凶险是不是太巨大了?
说到底,“基础设施租赁”计划,更像是一场“豪赌”。赌赢了兴许开辟新鲜收入来源,缓解财务压力;赌输了兴许把本就慌的材料分散,主业也受关系到。至于这场赌局能不能赢,得看OpenAI能不能解决“算力够不够”“客户要不要”“价钱合不合理”“数据安不平安”这四巨大困难题。但有一点能一准儿:AI这行当,眼下比的不是谁的手艺更牛,而是谁的钱更经烧。OpenAI想当“手艺房东”,先说说得确保自己别先成了“租客”。
欢迎分享,转载请注明来源:小川电商