也许科技公司要成长,就需要一位“暴君”。

OpenAI的人事动荡继续,这次是OpenAI总裁Greg Brockman宣布长期休假——他被公认为Sam Altaman的铁杆,曾在Sam被赶出董事会的时候和他同进退。Greg Brockman自己对外宣称是长假之后会返回公司,不过,很多科技公司的高管,都会在离职前休一个长假,他的举动很难不让人有其它猜测。

此外,还有两位核心高管被曝离职,一位是联合创始人之一Johnson Schulman,他在离职前短暂担任安全团队负责人,这个团队之前由OpenAI前首席科学家Ilya Sutskever和研究员Jan Leike共同负责。

同时,Johnson还领导了OpenAI的GPT系列大模型的Post-Training(后训练)过程,可以说是技术构建中一个很关键的人物。更耐人寻味的是,他离职之后,和Jan Leike一样,直接入职了OpenAI的最强竞争对手Anthropic。

“暴君”主宰AGI,OpenAI走向危险未来?

另外,去年加入OpenAI的产品负责人Peter Deng也已经离职,虽然他并不是联合创始人,但是刚刚加入不到一年就离职,也会让外界猜测,OpenAI的团队,到底怎么了?

OpenAI的第二次人才流动大潮

创始人仅剩3位,还有1个长期休假

经过这次变动之后,OpenAI最开始的11位联合创始人中,只剩下Sam Altman,Wojciech Zaremba 以及 Greg Brockman(还宣布了长期休假)还留在OpenAI之中。其余创始成员都离开了团队。

这11名创始人中有五位是在2017-2018年期间,那个时候马斯克宣布撤资,引发过OpenAI的一波动荡期。包括Trevor Blackwell、Vicki Cheung、Durk Kingma、Pamela Vagata。而另一名创始成员 Andrej Karpathy也被马斯克直接挖走,充当特斯拉自动驾驶负责人。他直到2023年2月才重返OpenAI。

剩余的6名创始成员,都是在OpenAI去年年末的宫斗后,于今年离职的。包括OpenAI前首席科学家Ilya Sutskever,前文提到的John Schulman 以及回归仅一年的科学家Andrej Karpathy。可以说,2024这一年,是OpenAI继马斯克风波以来,经历的最大的一场元老人员变动潮。

OpenAI离职人员都去了哪?

从OpenAI离职人员的去向看,他们一般都会走上两条路径。其一是加入对手公司,基本上是Deepmind和Anthrophic两家。其二就是自己创业,上文提到的绝大多数离职人员(66%)都选择了加入新的创业项目。

“暴君”主宰AGI,OpenAI走向危险未来?

这一选择实际上也催生了所谓的“OpenAI 黑手党”。根据媒体整理,在今年之前已有近 30 名员工离开 OpenAI,创立了自己的 AI 企业。其中有数个都达到了独角兽水平。其中最知名的就是Dario Amodei创办的Anthrophic,目前已经成为OpenAI最有力的竞争对手。

“暴君”主宰AGI,OpenAI走向危险未来?

本次离职影响有多大

从之前Information 透露出的架构图,本次出现人事变动的三人都属于OpenAI中的核心管理者。从职能上看,Brockman和Shulman都向OpenAI的CTO Mira Murati报告(Greg作为主席和董事会成员应该还负责另外的工作),而作为用户产品VP的Peter Deng应该在汇报的第三层级。他们所负责的工作基本上属于OpenAI核心技术工作。这些人的变动影响不能说不大,大概是最核心的40人高管中更换了3人。

但实际上,具体看3人负责的内容可能当下都不太能真正关联到OpenAI新模型的开发核心。按OpenAI过往的官方博客介绍,Greg Brockman在2022年起担任总裁一职,当时专注于训练OpenAI的旗舰 AI 系统。但实际上从GPT-4之后开始,现任首席科学家Jakub Pachocki就主导了 GPT-4 和 OpenAI Five的开发。

Shulman曾经负责OpenAI的后训练部分,曾提出近端策略优化(PPO)算法。这是一套用于改进大语言模型的核心策略算法,也是OpenAI直到现在都在应用的主要算法之一。但从Illya离职后,他就被改换为超级对齐的负责人,目前对GPT-5项目的影响估计很有限。

产品负责VP Peter Deng负责的是客户产品,整体与GPT-5的核心开发工作关联有限。

目前可以基本确认,研究VP Bob MacGrew及首席科学家Jakub Pachocku才是新模型开发的最关键人物。

“暴君”主宰AGI,OpenAI走向危险未来?

另外,OpenAI内部可能现在推动技术革新的主要人物已不是高管,而是一些基层研究员了。比如前Stability AI CEO Emad就在X上表示,只有Alec Radford离职,才能确定OpenAI垮定了。

“暴君”主宰AGI,OpenAI走向危险未来?

通过谷歌Scholer的论文引用数量,我们也能看出他的分量。

“暴君”主宰AGI,OpenAI走向危险未来?

所以,这次离职事件对OpenAI的研究进展影响可能有限,主要影响在团队内部士气和外部对公司的信心上。

毕竟连铁哥们儿都留不住,让联创全都出局的老板,很难让人对其管理能力产生信心。

冲突的关键猜测

离开的关键词:超级对齐

OpenAI的超级对齐项目于2023年6月成立,计划未来4年投入20%算力,用AI监督AI的方式构建一个与人类水平相当的自动对齐研究器,以解决更高层次的智能系统与人类目标的一致性问题。“超级对齐”团队由OpenAI联合创始人、首席科学家Ilya Sutskever和研究员Jan Leike共同负责。

Ilya Sutskever可以说是OpenAI的灵魂人物之一,当2017年那篇引起行业巨大关注的“Attention is all you need”论文发布之后,Ilya全力支持Transformer架构方向,随后主导了GPT及文生图DALL-E系列模型的研发。

Ilya同时也是被称为“深度学习之父Geoffrey Hinton”的学生,在Hinton的指导下完成了他的本科和研究生学习,最终获得了计算机科学博士学位。Hinton也一直提出警示,人工智能的快速发展可能带来超越人类智能的威胁。

2023年底,被外界称之为“OpenAI宫斗”的事件最终由Ilya的离开,Sam Altman的回归画上了暂时的句号。但是,这场风波延续至今。外界最大的猜测就是,OpenAI内部的分歧,更大的是信仰的巨大冲突。

从Sam Altman的背景及行为表现来看,行业倾向于把他看作是e/acc(有效加速主义)的信奉者,认为技术的发展本质上对人类有益,人类应该投入尽可能多的资源去加速创新,来改变现有的社会结构。对应到OpenAI所做的事件中,简单粗暴地可以总结为集中财力、资源,全速突破AGI。

超级对齐和有效加速,从本质上来说,已经不是路线之争,而是内心信仰的巨大冲突。2024年5月,Jan Leike也宣布离职,离职的时候在社交媒体X上发贴说:“我实在不赞同管理层对重要事项所定的优先级,建造比人类更聪明的机器本质上是一项危险的工作,但在过去的几年里,AI安全已经让位于闪亮的产品。这种分歧已经持续了一段时间了,终于到了无法挽回的地步。”

随着Jan Leike的辞职,最初的超级对齐团队也基本上宣布结束。剩余成员被整合到安全团队,由Johnson Schulman负责,就在今天,Johnson Schulman也宣布离职。

“暴君”主宰AGI,OpenAI走向危险未来?

很耐人寻味的是,Jan Leike和Johnson Schulman都去了Anthropic,这个与OpenAI可以说是同根的“德比”。Anthropic的创始人也是OpenAI的前核心员工Dario Amodei,据说Dario早在2020年离开的时候,就是因为AI安全问题。

Dario在Antropic推出了Constitutional AI(宪法 AI),这是一种训练 AI 模型的方法,通过一组明确的行为原则来指导 AI 系统的行为,而不是依赖于人类的反馈来评估响应。这种方法的核心是利用 AI 系统自身来帮助监督其他 AI 系统,以提高 AI 的无害性和有用性,同时扩大监督规模 。

Dario强调,Constitutional AI 的主要思想是使用 AI 系统来帮助监督其他 AI 系统,从而扩大监督规模,提升 AI 的无害性和有用性。Constitutional AI 的过程涉及到自我批评、修正、监督学习和强化学习等步骤,以及一系列基于自然语言的宪法准则,用于约束 AI 的行为。

是不是和Ilya的超级对齐思想,有着无比相似的味道?

似乎从此以后OpenAI和Anthropic,成为了AI领域有效加速主义和超级对齐主义的两种信念的不同代表。

此前,有人忧心地指出,Ilya的出走,可能是因为看到了OpenAI的某些技术已经不受控制,如果真的是这样,走在另外一条路上的Anthropic,也许会成为牵制这头巨兽的有利武器。

毕竟,Anthropic的Claude系列模型,在能力上,已经无限接近OpenAI的GPT系列大模型

另一种冲突:“暴君”Sam Altman,和理想主义的治理结构

另外一个核心人物,OpenAI的创始人Sam Altman所要坚持的,可能会比一个有效加速的信仰要困难更多。

首先,考古OpenAI,2015年12月11日创立。创立之初就充满着理想主义的色彩,愿景包括积极推动开发造福全人类的通用人工智能(AGI),普惠每个人,对抗大公司或少数人对人工智能的垄断。

在这个愿景号召下,募集了包括埃隆·马斯克在内的大佬的钱,资助者似乎承诺在该组织的发展过程中向该组织提供数十亿美元,这个时期的OpenAI,只需要关心如何完成理想,不需要操心柴米油盐。

然而,在那篇现在举世闻名的Attention is All you need论文出现之后,OpenAI走向了Scaling law的路线,这是一条需要巨量资源消耗的路线。

在2019年,为了能够获得融资,OpenAI转向了混合结构,在母公司OpenAI Inc.下,成立了子公司OpenAI Global,其中微软的投资换取了OpenAI Global高达49%的股份。

这就是说,OpenAI保留了原来的非营利母公司,但在这个母公司下面,创建了一个叫做OpenAI Global的营利性子公司。这个子公司可以吸收风险投资者的钱和员工的股份,也就是说,它可以像普通的公司那样筹集资金了。

但是,OpenAI LP并不是完全变成了一个普通的公司,它还有一个特别的地方,就是“有上限利润”。这意味着,虽然它可以赚钱,但是有一个上限。如果赚的钱超过了这个上限,超出的部分就要返回给非营利的母公司,这样做可以确保OpenAI LP不会偏离它最初的目标,即造福全人类。

但是,这样一个看似创新的架构,有一个潜在的风险,那就是非营利组织OpenAI LP的董事会控制着盈利组织Open AI Global,非盈利组织的使命是全人类的福祉,而不是股东的权益。微软拿到了49%的股权,但是没有董事会席位,也没有任何发言权。

更为戏剧的是,在Altman被驱逐出董事会之后,又有98%的员工以辞职威胁签署公开信,要求他复职。Altman在后来的采访中说:“这件事,也许将会毁掉每个人的股权,而对于很多员工来说,这是他们全部或绝大部分的财富。”

普通员工为了最世俗利益的“抱团”,战胜了核心创立者们的宏大安全AGI理想。

“暴君”主宰AGI,OpenAI走向危险未来?

除了OpenAI的治理结构,Sam Altman的某种“惹争议”管理的风格,也在网上被爆料出来,比如Altman有一套方法被他称之为“动态”管理的方法,就是在毫无预警的情况下,让某人担任临时领导角色,并分配资源。比如Altman曾经突然提拔了另一位人工智能研究员Jakub Pachocki为研究主管,当时Ilya Sutskever就表示很不安,同时向两名不同的高管承诺资源和责任,虽然Sam的本意是引发竞争,但是Ilya觉得这更多会引发冲突。

另外,Sam Altman在竞争中的风格也比较狼性和直接,比如在GPT-4o上线之前,被曝没有经过充分的安全测试,传言称选择那个时机是为了给竞争对手谷歌更有效的阻击。

OpenAI是这波生成式AI浪潮的点燃者,也一直被认为是引领者。但是,目前的处境也越来越有挑战:全世界都在期待OpenAI手中还有多少王炸,但是同时也更期待这些王炸究竟能不能转化成一个能够创造足够利润的真正产品——毕竟OpenAI的产品力一直是被行业吐槽的。

另外,据投资机构预测,OpenAI今年预计还会继续亏损,继续训练更强大模型,在造血能力还不够的情况下,如何持续融资也是OpenAI不得不考虑的问题。

竞争环境也是越来越激烈,不仅巨头环伺,连最大的股东微软在最新的财报中都将OpenAI列为竞争对手,还要面对那个同样实力超强的Antropic。

Sam Altman回归之后,有可能将要变成“孤家寡人”了,外界也会担心,这个看起来已经成了“空壳”的董事会,是否还能继续让OpenAI保持领先。

但是,今天一位创投领域咨询师跟我们表达了如下的观点:“OpenAI的原始管理层,是一群背景华丽的书生,正直有理想;但是,也许科技公司真正能够成长,却需要一位‘暴君’。没有一位专断的‘暴君’,可能做决策都要很久。”

“暴君”Altman带领下的OpenAI,不知道最终会走向何方?

本文来自微信公众号”腾讯科技“,作者:郭晓静 郝博阳,编辑:苏扬

“暴君”主宰AGI,OpenAI走向危险未来?

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...