设为书签 Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。 您也可下载桌面快捷方式。点击下载 | 新浪科技 | 新浪首页 | 新浪导航

OpenAI又一高管离职!深扒98名前员工去向,探秘万亿估值AI巨无霸乱局

2024-09-13 13:59:48    创事记 微博 作者: 智东西   

  9年3波离职潮背后,OpenAI做错什么了?

  作者 |  陈骏达

  编辑 |  心缘

  智东西9月12日报道,就在OpenAI传出将以1500亿美元(约合10700亿元人民币)估值寻求65亿美元(约合462亿元人民币)融资之际,又有OpenAI高管离职出走。

  昨天,领导OpenAI GPT-4o和GPT-5模型音频交互研究的亚历西斯·克努亚(Alexis Conneau)宣布离职并创业。该研究能使GPT-4o等模型实现电影Her中那样自然的语音交互体验,但从今年5月首次发布以来,相关产品一直处于跳票的状态。

  ▲克努亚官宣离职并创业的推文(图源:X平台)

  这已经是今年从OpenAI离职的第10位高管。自去年OpenAI董事会夺权风波以来,OpenAI人才持续流失。

  8月,据OpenAI安全团队前成员丹尼尔·科科塔约洛(Daniel Kokotajlo)透露,该团队近期减员约14人。目前,OpenAI正在官网上招募从该部门负责人到基层工程师的所有职位。

  此外,今年有至少7名OpenAI员工转投对家Anthropic,包括2位工龄9年左右的元老;ChatGPT发布的近3年来,至少有50名员工离开OpenAI,其中不乏OpenAI早期员工。

  ▲OpenAI部分联创与创始员工合影,马斯克与阿尔特曼不在合影中,图中9人仅剩1人(图源:filehippo)

  OpenAI目前已不再将普通员工的人事变动同步至博客,上述数据主要来自于社交媒体与相关报道。或许,当下这波离职潮的实际规模要大于我们的统计数据。

  另据《纽约时报》报道,OpenAI近期引进了7位董事会新成员和多位高管,其中包含政界、军界人士与硅谷其它公司的高层。OpenAI也在考虑改变公司架构,以吸引更多投资。

  要理解OpenAI当下的变局,我们可能需要回顾OpenAI近9年历史中,经历过的另外2个动荡期。

  2017年-2018年,当时只有45名员工的OpenAI陆续损失了24名员工。后续披露的内部邮件显示,OpenAI严重夸大了公司的资金状况,又利用开源名头忽悠了不少AI人才。创立早期的OpenAI管理松散混乱,目标模糊,发展速度不尽如人意。

  2019年,OpenAI裁撤多个团队,专注生成式AI的开发。此时的OpenAI告别了非营利组织身份,开始从事产品开发,这让部分员工对公司路径产生异议,最终有8人于2021年底离职创办了Anthropic。

  安全是本轮OpenAI离职潮中绕不开的核心争议。OpenAI每年的支出是收入的3倍多,这意味着他们面临的很大的资金与增长压力。OpenAI或许因此减少了在AI安全方面的投入,今年离职的多名员工都曾公开批评OpenAI内部的流程缺陷、安全团队资源短缺等问题。

  智东西统计了过去9年中从OpenAI离开的98名员工及其去向,如今11名联合创始人仅剩2人还在正常工作,部分陪伴OpenAI多年的老员工们也选择离开。

  此时的OpenAI,或许已经不是创立之初的那家公司了。

  ▲OpenAI官网截图,存档日期为2015年12月11日(图源:Internet Archive)

  01.

  2017-2018:创立2年损失44%员工

  管理混乱与资金问题或为背后原因

  OpenAI成立于2015年底,至2017年初他们已拥有45名员工。埃隆·马斯克(Elon Musk)和萨姆·阿尔特曼(Sam Altman)是OpenAI的联席主席,时任CTO为格雷格·布罗克曼(Greg Brockman),首席科学家为伊尔亚·苏茨克维(Ilya Sustkever)。

  虽然OpenAI明面上拥有10亿美元资金,也有一众AI大牛背书,但仅在2017年,OpenAI就损失了20名员工,占年初员工数量的44%。

  多名AI大牛选择加入资源更丰富的大厂,如谷歌、特斯拉等。伊恩·古德费洛(Ian Goodfellow)、迪亚德里克·金玛(Diederik Kingma)、安德烈·卡帕西(Andrej Karpathy)等是其中最具影响力的几人。

  也有部分员工选择离职创业。其中较为成功的案例包括机器人公司Covariant和AI医疗器械制造公司Aidence。

  2018年初,OpenAI最大金主马斯克也选择离开。

  ▲2017年-2018年间离开OpenAI的部分员工及其去向(智东西制表)

  为何有如此之多的员工快速离开了OpenAI?我们或许能从OpenAI近期分享的内部邮件和历年来不断涌出的报道中,找到蛛丝马迹。

  1、虚报募资额,资金短缺

  创立之初,OpenAI的募资目标为1亿美元,但马斯克认为这笔资金数额听上去太少,建议管理层应该宣称公司筹到了10亿美元,还称自己将补齐剩余的部分。

  ▲马斯克建议OpenAI谎报募资额(图源:OpenAI)

  然而,根据OpenAI后续披露的数据,到2018年初马斯克大概捐赠了5000万美元,远远少于他的承诺。马斯克撤资后,OpenAI的资金状况雪上加霜。

  2、早期目标模糊,管理松散

  早期的OpenAI具有很强的非盈利研究所气质,阿尔特曼和马斯克几乎不参与日常管理。

  从OpenAI的博客来看,成立7个月后他们才明确公司的研究方向,管理松散的OpenAI似乎无法赶上当时AI头部玩家们的发展速度。

  2018年初,马斯克提出他对OpenAI的进展极为不满,想要亲自接管OpenAI,这遭到了大部分成员的反对。马斯克最终负气出走,并撤走资金。

  3、打着OpenAI的幌子,干着Closed AI的事

  开源是OpenAI人才招募过程中的金字招牌。

  阿尔特曼曾在OpenAI创立之初的采访中公开表态,称他们的模型会是开源的。

  然而,OpenAI核心成员对开源的看法其实与他们对外的宣传口径完全相反。

  OpenAI前首席科学家苏茨克维在内部邮件中将开源等称之“中短期内的招聘策略”。

  然而他们的实际计划却是逐渐减少开放,不分享相关研究。

  ▲OpenAI披露的内部邮件显示,开源仅仅是其招募手段,并非实际战略(图源:OpenAI)

  在2016年一篇《纽约客》特稿中,阿尔特曼也说过OpenAI不会发布所有的源代码。

  早期的OpenAI确实开源了部分AI工具,不过,违背开源承诺将成为OpenAI后续两波离职潮中绕不开的争议。

  02.

  2019-2021:裁撤多个研究团队

  内部出现路线分歧

  2019年-2020年是OpenAI的调整期。有多个团队成建制地离开了OpenAI,或是被裁撤。

  至少有6名OpenAI机器人团队成员先后离职,OpenAI Five团队至少有2人离职。OpenAI的可解释性研究、自博弈研究、策略优化研究都在这一阶段陷入停滞。

  因上述原因离职的员工的主要去向依然是大厂,但也有2人选择创业,还有1人转行搞起了量化对冲基金。

  不过,2020年底成立的Anthropic,是这一阶段离职的OpenAI员工最主要的去向。

  Anthropic脱胎于OpenAI,OpenAI的研究副总裁、安全与政策副总裁、政策部门主管、可解释性团队负责人等人均为Anthropic联合创始人。

  参与GPT-2、GPT-3核心开发工作的员工也选择加入Anthropic,包括GPT-3论文第一作者和GPT-3算力基础设施负责人。

  截至2021年初,至少有11名前OpenAI员工加入了Anthropic。

  ▲2019年-2020年离开OpenAI的部分员工及其去向(智东西制表,为方便分析,2021年初加入Anthropic的员工被列入此表)

  综合各方资料,OpenAI在这一阶段的人事变动可能主要有2个原因。

  1、研究重心转移,专注生成模型业务

  2019年之前,OpenAI发表了许多机器人、具身智能领域的研究。

  随着Transformer架构的出现和生成式AI模型的潜力被验证,OpenAI的研究重心转变为大语言模型与图像生成模型,GPT系列模型成为其明星产品。

  从OpenAI官网博客的内容来看,2020年之后,多个与生成模型不相关的研究领域发表数量降为0。

  ▲OpenAI部分研究领域发表博客数量变化(智东西制表)

  2021年,OpenAI的机器人团队被正式裁撤,另有多个研究部门销声匿迹。

  2、做产品还是做研究?团队内部产生路线分歧

  增长定义了阿尔特曼治下的OpenAI。2019年,OpenAI成立了其有限营利部门,告别之前的非营利身份。多位OpenAI高管曾在公开场合高调宣传这一架构的独特性和优越性,认为这一架构可很好地平衡安全与发展。

  不过,OpenAI有限营利实体的营利上限为投资额100倍,其实远远高于绝大多数股权投资的回报率。

  正因如此,OpenAI独特的架构并未让投资人望而却步,Khosla Ventures和微软在2019年向OpenAI大量注资。

  成为有限营利公司后,OpenAI打破了之前不开发产品,专注研究的计划。他们推出了OpenAI API这样的产品,并开始与微软合作开发一些AI工具。

  2020年12月,以OpenAI时任研究副总裁达里奥·阿莫蒂(Dario Amodei)和时任OpenAI安全与政策副总裁丹妮拉·阿莫蒂(Daniela Amodei)兄妹二人为首的8名OpenAI资深员工和高管选择离开,创办了AI创企Anthropic。

  离开OpenAI时,达里奥称Anthropic会减少对产品开发的关注,更多地关注研究。

  丹妮拉也曾在2024年的彭博社科技峰会上说道:“我们离开OpenAI是出于对公司发展方向的担忧。”

  ▲阿莫蒂兄妹二人(图源:《时代》)

  03.

  2021-2024:ChatGPT导致工作压力激增

  安全问题引发争议

  2021年底,OpenAI在未经董事会许可的情况下发布了ChatGPT。虽然ChatGPT成为了现象级产品,将OpenAI由一家岌岌无名的小公司变为人尽皆知的AI领域明星企业,但这也给员工带来的更大的压力。

  至少有2名OpenAI高管公开分享了OpenAI的高强度工作。2023年5月,OpenAI信任与安全部门原联合主管戴夫·威尔纳(Dave Wellner)称,自己因难以保持工作与生活的平衡而离职。

  近期,OpenAI联合创始人和前总裁布罗克曼宣布延长休假。他称自己前9年一直全身心投入到OpenAI的工作,终于有机会给自己放松、充电。

  近3年来,AI逐渐从幕后走到台前,赢得了投资人的关注,有至少12名OpenAI前员工选择创业或加入创企。昨日官宣离职的克努亚就要加入创业大军,他在X平台上称自己对通用情感智能(General Emotional Intelligence)很感兴趣。

  知情人士透露,OpenAI年收入已突破20亿美元,但年支出也达到了70亿美元。微软自2019年以来一共向OpenAI注资130亿美元,这意味着OpenAI面临着较大的资金压力。

  ChatGPT等产品和不断推出的新业务能在一定程度上缓解这一压力,但有部分注重AI安全的员工并不认同OpenAI的高速发展模式。

  2023年11月,OpenAI CEO阿尔特曼被4名前董事会成员投票开除,原因是前董事会发现他在公司治理过程中存在种种欺骗性行为,不再信任阿尔特曼。但仅仅5天后,阿尔特曼在投资人和部分OpenAI员工的帮助下官复原职,参与“未遂政变”的多位前董事会成员被迫离开。

  今年5月,消失半年的OpenAI灵魂人物、前首席科学家苏茨克维官宣离职,1个多月后,他宣布自己创办一家名为“安全超级智能(SSI)”的企业。

  ▲苏茨克维官宣创业(图源:X平台)

  苏茨克维向来积极支持AI安全事业,建立了OpenAI内部的超级对齐团队,还曾在多个场合公开发声警示AI安全问题。

  今年以来,7名在OpenAI负责AI安全相关问题的员工加入Anthropic,其中包括3名OpenAI资深员工:对齐团队核心成员尤里·布尔达(Yuri Burda)、超级对齐团队联合负责人杨·莱克(Jan Leike)和加入OpenAI 9年的联合创始人舒尔曼。

  据前OpenAI安全研究员科科塔约洛(Daniel Kokotajlo)介绍,OpenAI安全团队出现了缓慢而持续的离职潮,原本致力于AI安全的30名员工现在仅剩16人。

  智东西在OpenAI官网上看到,其产品安全团队正在招募从负责人到基层工程师的所有职位。

  ▲2021年-2024年离开OpenAI的部分员工及其去向(智东西制表)

  据《纽约时报》报道,如今的OpenAI拥有超过1700名员工,其中80%都是在ChatGPT发布后入职的。尽管有新员工和新高管涌入,但早期员工仍在继续离开。快速增长似乎并没有解决OpenAI在公司文化、治理方面的挑战。

  1、高强度工作压垮员工,工作生活平衡指数迅速下滑

  在职场评价平台Glassdoor上,OpenAI的工作与生活平衡得分自2022年底ChatGPT推出以来就开始下滑,2023年底跌至2.8分的最低点。目前,OpenAI在此项上的得分也仅有3.3分。

  ▲OpenAI工作与生活平衡指数变化(图源:Glassdoor)

  在Glassdoor上有多名OpenAI员工匿名分享自己在ChatGPT发布后的工作感受。

  其中一位员工称,工作与生活的平衡基本不存在。由于OpenAI已经转型为产品公司,所以交付面向消费者的产品的压力很大。

  他还称OpenAI总是处于人手不足的情况,员工要处理繁重的面试工作,这让他们很难专注于自己的日常工作。

  2、安全制度形同虚设,一切都要给产品让路

  OpenAI对待安全问题的态度让不少员工选择离职。

  ChatGPT发布后,OpenAI安全研究员利奥波德·阿申布伦纳(Leopold Aschenbrenner)发现公司出现严重安全风险,并向董事会分享安全备忘录。然而,他却在几个月后因此事被OpenAI人力部门以“泄密”的罪名开除。

  OpenAI前安全研究员丹尼尔·科科塔约洛(Daniel Kokotajlo)称,OpenAI架空了安全规章制度。在2022年底-2023年初,OpenAI和微软曾在未经内部审批的情况下在印度秘密测试GPT-4。直到用户投诉模型的异常行为时,OpenAI的安全团队才知晓这一测试。

  OpenAI超级对齐部门原联合负责人莱克也爆料了不少OpenAI在安全方面的问题。

  莱克称,OpenAI的超级对齐部门一直处在逆风航行的状态,无法获得足够算力以完成研究。他还认为过去几年中,OpenAI的安全文化与流程已经让位于更为耀眼的产品。

  ▲莱克离职时发布的推文(图源:X平台)

  04.

  结语:“没有员工,OpenAI就什么都不是”

  为应对离职潮,OpenAI在过去几个月中从Meta、Nextdoor等公司中挖来了一众经验丰富的技术高管,还增加了7名董事会成员,其中包括1位曾担任美国网络司令部司令的退役四星上将。另有1位曾在克林顿政府和Airbnb担任要职的人士即将加入OpenAI。

  针对近期的动荡局面,OpenAI在一则声明中称:“创企势必要随着影响力的增长而发展和适应,但OpenAI正在以前所未有的速度经历这种转变。”但这一转变有多少是出于OpenAI管理层的主动选择,又有多少是迫于资深员工离职的压力,尚未可知。

  当OpenAI时任董事会决定开除阿尔特曼时,部分OpenAI员工以离职威胁董事会,纷纷转发“没有员工,OpenAI就什么都不是”的口号。

  然而,仅仅不到1年之后,阿尔特曼也在经历时任董事会所经历的情况。在多名联合创始人和资深员工相继离职,乃至转投对家的当下,OpenAI的未来要走向何方?

(声明:本文仅代表作者观点,不代表新浪网立场。)

分享到:
保存   |   打印   |   关闭