今年 2 月随着 Sora 的横空出世,大家再一次把目光聚集到 OpenAI

不仅如此,去年亮相的 ChatGPT、GPT-4,更是把 AI 直接带入到生成式人工智能领域。作为一家引领科技潮流的机构,大家自然对其方方面面都产生好奇。

在最近的一次采访中,美国知名播客 Lex Friedman 再次邀请 OpenAI 首席执行官 Sam Altman 进行专访。专访时间长达两个小时,对话中 Sam Altman 透漏了几个大家比较关心的问题。

奥特曼回应一切:GPT-5、董事会宫斗、Ilya当时看到了什么

Sam Altman 坦言,OpenAI 的「董事会风波」让他很痛苦,甚至在一段时间内他都处于神游状态(fugue state),整个事件持续了好几天,过程跌宕起伏,让 Sam 倍感疲惫,Altman 表示这可能不是 OpenAI 最后一个高压力时刻。整个事件中,Sam 高度赞扬了 Mira Murati 出色的表现。他认为 OpenAI 面临的挑战之一是必须拥有一个善于在压力下运作的董事会和团队。此外董事会增补了一些经验更丰富的成员。

关于 Ilya,Sam Altman 表示他非常尊重并欣赏 Ilya,希望未来的工作生涯都能和他合作,并回应道:「Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣。关于安全问题 Ilya 想了很多,也担心了很多。」

Sam Altman 还对马斯克批评 OpenAI 的事情给出了自己的看法:「对于许多根本性的新事物来说,你开始在黑暗中摸索,并做出一些假设,结果会发现大多数假设都是错误的。我们进行了一些修补,最后的结果至少可以说是让人瞠目结舌。」他认为马斯克也会对此有很多共鸣。

谈到 Sora 时,Altman 表示非常乐观,但是将 Sora 理解为一个底层三维世界模型,是有点牵强的,此外,他还提到了 Sora 的局限性。但当记者问到细节和数据时,Altman 没有透漏更多有用的信息。

在 Altman 眼中 GPT-4 还是很糟糕的,他预计 5 和 4 之间的差值将与 4 和 3 之间的差值相同。

访谈中,当记者问道 Q* 是个什么项目时,Sam Altman 表示自己还没准备好回答这个问题,但他透漏了 AI 系统下一步发展计划是进行更好的推理。OpenAI 现在采用迭代部署的方式进行研发,而不是秘密进行直到完成 GPT-5 才公布,他们的目标不是给世界带来震惊性的更新,恰恰相反,OpenAI 希望自己研发的成果不会给人一种跳跃式的发展趋势,如果那样的话,OpenAI 会更加快速迭代地发布他们的产品。Sam Altman 表示 GPT-5 之类的研究或许采用一种不同的发布方式。

当记者问道GPT-5 的发布日期时,Altman 回答自己并不知道但他表示 OpenAI 在接下来的几个月中会发布许多不同的东西,大家可以理解为 GPT-5,或者不是,又或者是比 GPT-5 稍差或好一点的模型。Altman 还分享了一些经验总结,即自己会对科技行业中所有的或大部分前沿动态有一个好的全景图,这样才能能看到这些领域的连接或新的可能性。

采访过程中,当记者问道筹集 7 万亿美元建造芯片厂的事时,Altman 否认了,表示自己没说过这种话。之后他谈到算力将成为世界上最珍贵的商品之一,而实现算力需要解决能源问题,Altman 认为核能是一个不错的选择。

Altman 对于打造比谷歌更好的搜索引擎不感兴趣,他觉得这很无聊。OpenAI 要做的不是简单的复制谷歌搜索,而是有更好的方法帮助人们查找信息、采取行动并综合信息。很多人都想做一个比谷歌更好的搜索引擎,这是一个很难解决的技术问题,也是一个很难解决的品牌问题,更是一个很难解决的生态系统问题。Altman 认为世界不需要另一个谷歌,并坦言自己并不喜欢用广告来盈利,他认为用户使用付费 ChatGPT 不受广告商的影响就可以了。

对于 GPT-5 ,Altman 透漏会变得更聪明,在各个方面都将表现更好。Altman 预测 5 到 10 年后人类完全可以用自然语言编程。OpenAI 也会重返机器人领域。

最后,Altman 谈到了大家比较关心的问题 AGI,他表示 AGI 不是终点,而是更接近于一个里程碑式的开端。预计到在下个十年的末期,甚至可能更早,我们将拥有相当强大的 AI 系统。

关于这次采访的内容,我们进行了编译整理。

OpenAI 董事会风波

记者:带我回顾一下从 2023 年 11 月 16 日星期四开始的那场 OpenAI 董事会风波吧,也许您也可以从 11 月 17 日星期五开始讲述。

Sam Altman:这绝对是我一生中最痛苦的职业经历,混乱、可耻、令人不安,还有很多其他负面的事情。不过期间也有好事发生,但是我当时太过焦虑,肾上腺素激增,以至于我无法停下来细品这些经历。

但当我看见推特上人们谈论我做过的所有重要的事情,以及我爱的和关心的人都给了我难以置信的支持。那种感觉太好了。

整个周末,除了一个很大的例外,我感受到了很多爱和很少的恨,尽管我不知道正在发生什么以及将要发生什么,这种未知的感觉也的确很糟糕。有时我确实认为这将是人工智能安全史上发生的最糟糕的事情之一。

我也很高兴这件事发生得相对较早。我认为从 OpenAI 成立到我们创建 AGI,一定会有某个时刻,会发生一些疯狂和爆炸性的事情。即使现在似乎已经发生了,未来可能还会有更多疯狂和爆炸性的事情发生。我认为,这场风波帮助我们建立了一定的韧性,并为未来的更多挑战做好了准备。

记者:但你预感到的事情是权力斗争吗?

Sam Altman:通向 AGI 的道路应该是一场巨大的权力斗争……

记者:所以你必须经历这个过程,就像你说的,尽可能频繁地迭代,弄清楚如何建立董事会结构、如何建立组织、如何拥有你所需要的人员、如何沟通,所有这些问题都需要努力解决,以便尽可能缓和权力斗争。

Sam Altman:是的。

记者:缓和。

Sam Altman:但此时此刻回想起来,这件事情真的让人很不愉快,很困难、很痛苦。当我们又回到工作岗位,事情又如此的忙碌和紧张。之后有一段时间,一个月或者 45 天后,我都处于一种神游状态,我实在是太没出息了,心情非常低落。

记者:只是在个人心理层面上吗?

Sam Altman:是的。真的很痛苦,而且在这期间很难继续运行 OpenAI。我只想「爬进山洞里」恢复一下。

记者:嗯,你可能需要反思一下董事会结构、权力动态、公司的运营方式、研究和产品开发与资金之间的紧张关系,以便 OpenAI 在构建 AGI 方面具有很高的潜力,未来会以一种更有组织性、不那么引人注目的方式来实现 AGI。因此,这种恢复有很多价值,既包括你作为领导者的个人心理方面,也包括董事会结构等所有混乱的东西。

Sam Altman:我确实学到了很多关于结构和激励措施的东西,并且意识到在董事会之外我们还需要什么。我认为现在发生的这件事在某种意义上是有价值的。我认为这可能不是 OpenAI 最后一个高压力时刻,但这是一个压力相当高的时刻,公司差一点就被毁掉了。我们思考了很多我们必须为 AGI 做好的其他事情,但思考如何建立一个有弹性的组织以及如何建立一个能够承受世界上巨大压力的结构,随着我们越来越接近 AGI,我认为这越来越重要。

记者:你觉得董事会的审议过程深入、严谨吗?

Sam Altman:我认为董事会成员总体上都是善良的人,而且我相信,在感到时间压力或其他压力的情况下,人们会理解并做出次优的决定。我认为 OpenAI 面临的挑战之一是我们必须拥有一个善于在压力下运作的董事会和团队。

记者:你认为董事会权力太大吗?

Sam Altman:我认为董事会应该拥有很大的权力,但我们确实看到的一件事是,在大多数公司结构中,董事会通常对股东负责。有时人们会拥有超级投票权股份等等。

在这种情况下,我认为除非制定其他规则,否则非营利组织的董事会拥有相当大的权力。除了他们自己之外,他们并不真正对任何人负责。我们希望的是 OpenAI 董事会能够向整个世界做出回应。

记者:因此宣布了一个新的董事会。

Sam Altman:是的。一些新董事会成员拥有更多的董事会成员经验,我想这会有帮助。

我们希望以名单的形式雇佣董事会成员,致力于让一群人带来非营利的专业知识、运营公司的专业知识、法律和治理专业知识,这就是我们试图优化的目标。

记者:那么技术知识对于董事会成员个人来说重要吗?

Sam Altman:并非每个董事会成员都需要掌握技术知识,但肯定有一些成员需要,这也是董事会需要做的一部分。

记者:有趣的是,人们可能不了解 OpenAI 运营业务的所有细节,当然我也不了解。当人们想到董事会时,他们首先会想到你。他们会考虑,如果你认为达到了通用人工智能,或者构建部署了一些非常有影响力的产品,那么你与董事会的对话会是什么样的?在这种情况下,什么样的阵容才是合适的?

Sam Altman:这就是我认为肯定需要一些技术专家的原因。然后需要一些人去思考并解决一个问题:「我们如何才能以最帮助全世界人的方式部署它」,当然还需要持有不同观点的人。

我认为你或我可能犯的一个错误是认为只有技术理解才重要,但还有更多关于如何影响社会和人们生活的问题。

记者:你提到了那个周末的一些低谷。对你来说,心理上的低谷是什么?

Sam Altman:那的确是一段非常糟糕的时期,但是也有很多好事。我的手机不停地收到来自我每天一起工作的人的好消息,这些人我已经十年没有和他们说过话了。总的来说,这是一个非常痛苦的周末。这就像一场令人惊讶的公开战斗,我非常疲惫。董事会于周五下午进行了此项工作。我真的无法得到太多答案。我在想,董事会可以这样做,但我如何能因祸得福。

我当时想,好吧,我目前在 OpenAI 的工作是,或者说曾经是,经营一家规模相当大的公司。我一直最喜欢的事情就是与研究人员一起工作。我当时想,是的,我可以去做一个非常专注的 AGI 研究工作。我对此感到很兴奋。我当时甚至没有想到这一切都会被撤销。

记者:所以你当时已经接受了这件事情。

Sam Altman:是的,非常迅速。我经历了一段困惑和愤怒的时期,但很快就想清楚了。

记者:当天晚上你睡得着吗?

Sam Altman:睡得不好。奇怪的是,在那四天半的时间里,我睡得不好,吃得不多,但仍然精力充沛。

记者:所以你接受了 OpenAI 这个「婴儿」的死亡。

Sam Altman:我对新事物感到兴奋。

记者:这是一个非常好的应对机制。

Sam Altman:然后到了周六早上,两名董事会成员打电话说:「我们并不是有意破坏稳定。我们不想在这里存储太多价值。我们可以谈谈你回来的事情吗?」我最初不想这样做,但我想了想,我真的很在乎这里的人、合作伙伴、股东。我喜欢这家公司。然后我想:「好吧,但这就是我需要的东西。」那个周末,我一直在思考并被告知,不仅仅是我,整个团队都在努力保持 OpenAI 的稳定。

周日晚上,每隔几小时,我就期待我们会完成任务,找到一种让我回去的方法,让事情回到原来的样子。董事会随后任命了一位新的临时首席执行官,那是整个事情的最低谷的时刻。

记者:你对 Mira Murati 给予了高度评价,正如你在推文中所说,她在重要的时刻提供了帮助。或许我们可以稍微偏离一下主题。你欣赏 Mira 什么?

Sam Altman:嗯,在那个周末,在一片混乱中,她做得很好,人们经常在危机时刻看到领导者的表现,无论好坏。但我真正看重领导者的一点是,在无聊的周二上午 9:46 以及日常的平凡苦差事中表现如何,某人在日常会议中的表现、他们所做决策的质量。这就是我所说的静默时刻。

记者:这意味着大部分工作都是在日复一日的会议中完成的。只要专注并做出重大决定即可。

Ilya Sutskever

记者:下一个问题,关于 Ilya,他是否被秘密核组织挟持成人质了?

Sam Altman:没有。

记者:普通的秘密组织呢?

Sam Altman:没有。

记者:非秘密的核组织呢?

Sam Altman:都没有。

记者:这在某种程度上正在成为一个梗了。你认识 Ilya 很长时间了。显然,他是董事会风波的一部分。你现在和他是什么关系?

Sam Altman:我爱 Ilya。我非常尊重 Ilya。我不知道我能否透露他现在的计划,这个问题应该由他来回答。但我真的希望未来的工作生涯都能和他合作。他比我年轻一点。也许他的工作时间会更长一点。

记者:有人说 Ilya 看到了一些东西,可能是 AGI,这让他内心不安。所以,Ilya 看到了什么?

Sam Altman:Ilya 看到的不是 AGI,没有人见到过 AGI,我们还没有建造过 AGI。我确实认为我欣赏 Ilya 的众多原因之一是他非常认真地对待 AGI 和安全问题,从广义上讲,这包括 AGI 将对社会产生的影响。随着 OpenAI 不断取得重大进展,Ilya 是陪伴我时间最久的人之一。在过去的几年里,他总谈起这意味着什么、我们需要做什么来确保我们做的是对的,确保我们成功完成使命。所以 Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣,他想了很多,也担心了很多。

记者:我过去和他聊过很多次。我认为当他谈论技术时,他总是在做这种长期的思考。所以他并没有考虑一年后会发生什么,他考虑的是十年后的情况,是从首要原则出发去思考。

总结一下整个故事,你对董事会结构感觉良好吗?

Sam Altman:是的。我对新董事会感觉很好。就 OpenAI 的结构而言,董事会的任务之一就是研究我们可以在哪些方面变得更加强大。我们希望首先让新的董事会成员就位,但我们显然在整个过程中学到了有关结构的教训。我想,我没有什么非常深奥的东西要说。这是一次非常疯狂、痛苦的经历。这对我来说是一个预演,随着风险越来越大,我们需要拥有健全的治理结构、流程和人员安排。我很高兴它发生了,但这段经历令人震惊、痛苦。

记者:这是否让你在信任他人方面变得更加犹豫?

Sam Altman:是的。

记者:只是在个人层面上吗?

Sam Altman:是的。我认为我是一个非常信任别人的人。我一直有一个人生哲学,那就是不要担心所有的偏执,不用担心边缘情况。这场风波让我措手不及,它绝对改变了我对人们默认信任和针对糟糕情况规划的看法。

记者:我实际上不确定对于正在开发 AGI 的人来说,信任或不信任哪种模式最适合操作。但你如何让周围的人都在创造很酷的东西,同时也做出明智的决定?

Sam Altman:我对每天与我一起工作的人怀有极大的感激、信任和尊重,我认为被这样的人包围真的很重要。

马斯克的诉讼

记者:我们共同的朋友埃隆・马斯克起诉了 OpenAI。对你来说,他批评的本质是什么?多大程度上有道理?多大程度上是错的?

Sam Altman:我不知道这到底是怎么回事。我们一开始只是想做一个研究实验室,根本不知道这项技术会如何发展。因为这是七八年前的事了,我们很难回想起来当时的情况,但这是在语言模型大行其道之前。那时候我们还不知道什么是应用程序接口(API),也不知道销售聊天机器人的访问权限。那时候我们还完全不知道要实现产品化。所以我们就想,「我们只是想做做研究,并不知道要做什么」。我认为,对于许多根本性的新事物来说,你开始在黑暗中摸索,并做出一些假设,结果会发现大多数假设都是错误的。

后来我们发现,我们需要做不同的事情,还需要更多的资金。于是我们说:「好吧,我们的结构不适合这样做。我们该如何修补结构?」然后我们进行了一些修补,最后的结果至少可以说是让人瞠目结舌。但我认为,我们是一步步走到现在的,一路上的每一个决定都是合理的。但这并不意味着,如果我们现在能回到 Oracle 时代,我的做法就会完全不同,但当时你并没有 Oracle。但无论如何,埃隆真正的动机是什么,我不知道。

记者:根据你的记忆,OpenAI 在博文中给出的回应是什么?你能总结一下吗?

Sam Altman:哦,我们只是说埃隆说了这一系列事情。这是我们的描述,或者说这不是我们的描述。这是对事情经过的描述。我们尽量避免情绪化,只说「这是历史」。

记者:我确实认为埃隆对你刚才提到的一点有一定程度的误解,那就是你们当时的不确定性。你们是一小群疯狂谈论 AGI 的研究人员,而所有人都在嘲笑这种想法。

Sam Altman:不久前,埃隆还在疯狂地谈论发射火箭,而当时人们都在嘲笑这种想法,所以我认为他会对此有更多共鸣。

记者:我确实认为这里面有个人因素,OpenAI 和这里很多了不起的人选择与埃隆分道扬镳,这其中有个人因素。

Sam Altman:埃隆选择了分道扬镳。

记者:你能具体描述一下吗?选择分道扬镳?

Sam Altman:他认为 OpenAI 将会失败。他想要完全掌控局面。我们希望继续朝着现在已经成为 OpenAI 的方向前进。他还希望特斯拉能够建立 AGI。在不同时期,他都希望将 OpenAI 打造成一家营利性公司,由他来控制,或者让它与特斯拉合并。我们不想这么做,所以他决定离开,这也没什么。

记者:所以你的意思是,这也是博文中提到的一点,他希望 OpenAI 能以同样的方式被特斯拉收购,或者是类似的方式,或者是比与微软合作更戏剧化的方式。

Sam Altman:在我的记忆中,这个提议是被特斯拉收购,让特斯拉完全控制它。我很确定就是这样。

记者:那么 OpenAI 中的 Open 一词对当时的埃隆来说意味着什么?Ilya 曾在邮件交流中谈到过这一点,还有其他类似的东西。当时它对你意味着什么?现在对你又意味着什么?

Sam Altman:说到回到 Oracle,我会选一个不同的名字。我认为 OpenAI 正在做的最重要的一件事,就是将强大的技术作为公益事业免费提供给人们。我们不在自己的网站上做广告。

作为一项公益事业。我们不在免费版本上做广告。我们不以其他方式盈利。我们只是说,这是我们使命的一部分。我们希望将越来越强大的工具免费提供给人们使用。我认为这种开放性对我们的使命非常重要。我认为,如果你给人们提供强大的工具,并教他们使用,或者甚至不教他们,他们就会自己想办法,让他们用这些工具为彼此创造一个不可思议的未来,这就是一件大事。因此,如果我们能继续向世界提供免费或低成本的强大人工智能工具,我认为这对我们完成使命意义重大。至于开源与否,我认为我们应该开源一些东西,而不是其他东西。这确实是一条很难有细微差别的战线,但我认为细微差别才是正确的答案。

记者:所以他说,「把你的名字改成 CloseAI,我就撤诉」。这是否会成为关于名字的备忘录的战场?

Sam Altman:我认为这说明了埃隆对这起诉讼的重视程度,我认为这是一件令人震惊的事情。

记者:如果我说错了,也许可以纠正我,但我不认为这起诉讼在法律上是严肃的。它更多地是想说明 AGI 的未来,以及这家目前处于领先地位的公司。

Sam Altman:我是说 Grok 一直没有开源任何东西,直到人们指出这有点虚伪,然后他宣布了 Grok 开源。我不认为开源与否是他的真正目的。

记者:好吧,我们来谈谈开源和不开源。我认为批评竞争对手是件好事。说点废话,那很好。但友好的竞争与「我个人最讨厌打官司」的竞争是不同的。

Sam Altman:听着,我认为这整件事都不符合一个建造者的身份。我尊敬埃隆,他是我们这个时代最伟大的建筑师之一。我知道他知道仇敌攻击他的滋味,他这样折腾让我格外难过。

记者:是的,他是有史以来最伟大的建造者之一,有可能是有史以来最伟大的建造者。

Sam Altman:这让我很难过。我想这也让很多人难过。有很多人都仰慕他很久了。我在某次采访中说,我很怀念以前的埃隆,结果收到了很多留言,「这正是我的感受」。

记者:我觉得他应该赢。他应该让 X Grok 打败 GPT,然后让 GPT 打败 Grok,这就是竞争,对每个人来说都很美好。但关于开放源代码的问题,你认为是否有很多公司在玩这个创意?这很有趣。我认为 Meta 公司在这方面走在了前面,至少在真正开源模式的棋局中迈出了第一步。当然,这并不是最先进的模型,但开放 Llama 的源代码后,谷歌正在考虑开放一个更小的版本。开源的利弊是什么?你是否也有过这种想法?

Sam Altman:是的,我认为开源模型肯定会有一席之地,尤其是人们可以在本地运行的小型模型,我认为需求巨大。我认为会有一些开源模型,也会有一些闭源模型。这与其他生态系统并无不同。

记者:我听所有的播客都在谈论这起诉讼和所有这些东西。他们更关心的是,从非营利到盈利的先例。这给其他初创企业开了什么先例?

Sam Altman:我非常不鼓励任何初创公司考虑从非营利机构起步,然后再加入营利机构。我不鼓励他们这么做。我不认为我们会在这里开创先例。

如果我们知道会发生什么,我们也会这么做的。

记者:你希望埃隆怎么做?这种紧张,这种舞蹈,你希望是什么?如果从现在起的 1、2、3 年后,你和他在个人层面上的关系也是如此,比如友谊、友好竞争,诸如此类。

Sam Altman:是的,我真的很尊敬埃隆,我希望在未来的几年里,我们能保持友好的关系。

记者:是的,我希望你们这个月能友好相处,在竞争中获胜,共同探索这些想法。我想这是人才竞争或其他方面的竞争,但应该是友好的竞争。只要造出很酷的东西就行。埃隆很擅长于此,你也一样。

Sora

记者:说到 Sora,我可以问一百万个问题。首先,它太神奇了。从产品层面来说神奇,从哲学层面来说也很神奇。那么,让我从技术 / 哲学的角度问一下,你认为它对世界的理解比 GPT-4 多了还是少了?当你在这些 patch 和语言 token 上进行训练时,世界模型是怎样的?

Sam Altman:我认为所有这些模型对世界模型的理解都比我们大多数人认为的要多。因为它们对不理解或不正确的东西也很清楚,所以我们很容易看到它们的弱点,看穿它们的面纱,然后说「啊,这都是假的」。但这并不全是假的。只是有些有用,有些没用。

我记得刚开始看 Sora 视频时,我会看到一个人在某个东西前面走几秒钟,然后把它遮住,然后走开,同样的东西还在那里。我就想「哦,这还真不错」。或者有一些例子,在一个序列的许多步骤中,底层物理看起来表现得非常好,就像 「哦,这真是令人印象深刻」。但从根本上说,这些模型正在变得越来越好,而且这种情况还会继续发生。如果你看看 DALL・E 1 到 DALL・E 2 到 DALL・E 3 再到 Sora 的发展轨迹,就会发现有很多人在每一个版本中都说它做不到这一点,做不到那一点,但看看现在的情况就知道了。

记者:嗯,你刚才提到的「遮挡」基本上是对三维物理世界的物理建模,足以捕捉到这些东西。也许你可以告诉我,为了处理遮挡,世界模型需要什么?

Sam Altman:它在处理遮挡物方面做得非常好。但如果说它有一个很好的底层三维世界模型,这就有点牵强了。

记者:但你能通过这种二维训练数据的方法达到目的吗?

Sam Altman:看起来这种方法会走得很远。我不想过多猜测它能突破哪些限制,不能突破哪些限制,但……

记者:你见过这个系统哪些有趣的局限性?我是说你发过的一些有趣的限制。

Sam Altman:各种有趣的都有。我是说,猫咪在视频中随机出现的额外限制。随你怎么选,但问题还是很多,弱点也很多。

记者:你认为这是方法的根本缺陷,还是模型更大、技术细节更好、数据更好,更多数据就能解决猫发芽的问题?

Sam Altman:我觉得两者都是。我认为,这种方法似乎与我们的思维和学习方式有所不同。另外,我认为随着规模的扩大,这种方法会越来越好。

记者:就像我提到的,LLM 有 token、文本 token,而 Sora 有视觉 patch,因此它能将所有视觉数据、各种视觉数据视频和图像转换成 patch。训练是否可以说是完全自监督的,是否有一些人工标注?人类在其中的参与程度如何?

Sam Altman:我们在工作中使用了大量的人类数据,但并没有具体介绍 Sora 的方法。

记者:但不是互联网规模的数据?人类如此之多,「很多」是一个复杂的词,山姆。

Sam Altman:我认为在这种情况下「很多」是一个公平的词。

记者:因为对我来说,我是一个内向的人,当我和三个人一起出去玩时,那就是「很多」人 —— 四个人,很多了。但我想你的意思不仅仅是……

Sam Altman:是的,有超过三个人致力于为这些模型标记数据。

记者:但从根本上来说,有很多自监督学习。因为你在技术报告中提到的是互联网规模的数据。那是另一种美丽…… 就像诗一样。所以有很多数据不是人类标注的,是这样自监督的吗?

Sam Altman:是的。

记者:然后的问题是,如果我们知道自监督的细节,互联网上有多少数据可以用于这种有利于这种自监督的方式。您是否考虑过公开更多细节?

Sam Altman:我们有。你的意思是专门针对来源吗?

记者:具体来源。因为这太有趣了,LLM 的同样魔力现在可以开始转向视觉数据吗?需要什么才能做到这一点?

Sam Altman:我的意思是,在我看来是的,但我们还有更多工作要做。

记者:当然。有什么危险?为什么担心发布系统?这可能存在哪些危险?

Sam Altman:坦白说,在发布系统之前我们必须做的一件事就是让它以一定的效率运行,从而达到人们想要的规模。我不想淡化这一点,那里还有大量工作要做。但你可以想象深度造假和错误信息带来的问题。我们努力成为一家深思熟虑的公司,对我们向世界推出的产品深思熟虑,并且不需要太多思考就可以知道这种情况可能会变得糟糕。

记者:这里有很多棘手的问题,你面临着一个非常艰难的空间。你认为训练人工智能应该属于版权法下的合理使用吗?

Sam Altman:我认为这个问题背后的问题是,创造有价值数据的人是否应该通过某种方式获得使用数据的补偿,我认为答案是肯定的,只是还不知道答案是什么。人们提出了很多不同的建议,我们尝试了一些不同的模型。

记者:是的,这就是从 CD 到 Napster 再到 Spotify 的转变。我们必须找出某种模型。

Sam Altman:模式发生了变化,但人们必须得到报酬。

记者:好吧,如果我们进一步缩小范围,让人类继续做很酷的事情,就应该有某种激励。

Sam Altman:在我担心的一切中,人类会做出一些很酷的事情,而社会会找到一些方法来奖励它。我们想要创造,我们想要成为有用的人,我们想要以任何方式获得地位。我认为这不会有什么结果。

记者:但奖励可能不是金钱上的。这可能是其他的名誉和庆祝 ——

Sam Altman:或许可以通过其他方式实现财务方面的目的。再说一次,我认为我们还没有看到经济体系如何运作的最后演变。

记者:是的,但艺术家和创作者很担心。当他们看到 Sora 时,他们会说「天哪」。

Sam Altman:当然。当摄影出现时,艺术家们也非常担心,然后摄影成为一种新的艺术形式,人们通过拍照赚了很多钱。我认为类似的事情还会继续发生。人们将以新的方式使用新工具。

记者:如果我们只看 YouTube 或类似的内容,你认为在未来五年内,其中有多少内容将使用 Sora 等人工智能生成的内容?

Sam Altman:人们谈论人工智能在五年内将完成多少工作。他们的框架是,目前的工作中有多少比例将被人工智能完成的工作完全取代?但我思考的方式不是人工智能将完成多少百分比的工作,而是人工智能在一段时间内将完成多少百分比的任务。 

因此,如果你想到经济中所有的五秒任务、五分钟任务、五小时任务,甚至五天任务,人工智能可以完成多少任务? 

我认为这是一个比人工智能可以做多少工作更有趣、更有影响力、更重要的问题,因为它是一种工具,可以在越来越复杂的水平上工作,在越来越长的时间范围内完成越来越多的任务,并让人们以一种更灵活的方式进行操作。所以也许人们的工作效率会更高。

在某种程度上,这不仅仅是一种量的变化,而且对于你可以记住的问题类型也是一种质的变化。我认为 YouTube 上的视频也是一样的。许多视频,也许是大多数视频,都会在制作中使用人工智能工具,但从根本上来说,它们仍然是由一个人思考、组合、完成其中的一部分来驱动的。有点指导和运行它。

记者:是的,这很有趣。我的意思是这很可怕,但想想很有趣。我倾向于相信人类喜欢观察其他人类或其他人类。

Sam Altman:人类确实非常关心其他人。

记者:是的。如果有比人类更好的更酷的东西,人类会关心它两天,然后他们就会回到人类。

Sam Altman:这似乎非常紧密。

记者:这就是国际象棋的故事,「哦,是的」,现在让我们每个人都继续下国际象棋。让我们忽略房间里的大象,相对于人工智能系统,人类在国际象棋方面确实很糟糕。

Sam Altman:我们仍然参加比赛,汽车的速度要快得多。我的意思是有很多例子。

记者:是的。也许它只是以 Adobe 套件类型的方式提供工具,可以使视频之类的事情变得更加容易。我讨厌站在镜头前,如果能找到一种不在镜头前的方法,我会很高兴的。不幸的是,这还需要一段时间。生成面孔已经实现了,但是当它是特定的人与一般的人时,以视频格式生成面孔是很棘手的。

GPT-4

记者:让我问一下有关 GPT-4 的问题。现在回想起来,ChatGPT 的第 3、4、5 可能就是历史性的关键时刻。

Sam Altman:也许 5 将是关键时刻。我不知道。很难说期待。

记者:我们永远不会知道。但对我来说,回顾过去,GPT-4、ChatGPT 非常令人印象深刻。那么请允许我问一下,您对 GPT-4 、 GPT-4 Turbo 印象最深刻的功能是什么?

Sam Altman:这是一件了不起的事情,但相对于我们需要达到的目标以及我相信我们将会达到的目标,还是糟糕的。

在 GPT-3 时代,人们会说,「哦, 这真太了不起了。这是技术的奇迹」。确实如此,曾经如此。但现在我们有了 GPT-4,再看看 GPT-3,你会想,「这太可怕了」。我预计 5 和 4 之间的差值将与 4 和 3 之间的差值相同。

记者:GPT-4 最糟糕的地方是什么? 

Sam Altman:它能做的最好的事情是什么?

记者:它能做的最好的事情是什么?这些最好的事情的局限性是什么?

Sam Altman:我最近使用它的一件事是有点像集思广益的伙伴。其中有一丝令人惊奇的东西。当人们谈论它、它的作用时,他们会说:「哦,它会帮助我更高效地编码。它帮助我写得更快更好以及从将这种语言翻译成另一种语言」所有这些令人惊奇的事情。

但是有一些关于创造性头脑风暴合作伙伴的东西,「我需要为这个东西想一个名字。我需要以不同的方式思考这个问题。我不知道在这里做什么」,正是这些让我看到了一些我希望看到更多的东西。

你可以看到的另一件事是,我可以被帮助完成长期任务,分多个步骤分解某些内容,也许执行其中一些步骤,搜索互联网、写代码,无论如何,把它们放在一起。当这种方法奏效时(这种情况并不常见),那就非常神奇了。

记者:与人的反复交流对我来说非常有效。这是什么意思?

Sam Altman:当人类可以自己解决 10 步问题时,它可以更频繁地来回迭代。有时它并不经常起作用。

记者:添加多个抽象层还是意味着只是顺序的?

Sam Altman:两者都是,将其分解,然后通过不同的抽象层将它们组合在一起。我不想低估 GPT-4 的成就,但我也不想夸大它。我认为我们正处于指数曲线上,我们很快就会回顾 GPT-4,就像我们现在回顾 GPT-3 一样。

记者:也就是说,ChatGPT 是一个过渡,让人们开始相信信念有所上升,而不是在 OpenAI 内部。

Sam Altman:当然。从这个意义上说,我确实认为这将是世界上很多人从不相信变成相信的时刻。这更多是关于 ChatGPT 界面的。通过界面和产品,我还指的是模型的后期训练,以及我们如何调整它以对你有所帮助,以及如何使用它而不是底层模型本身。

记者:这些事情有多重要?底层模型和 RLHF 或类似性质的东西可以对其进行调整,使其对人类更具吸引力,对人类来说更加有效和富有成效。

Sam Altman:我的意思是它们都非常重要,但是 RLHF、训练后步骤、从计算角度来看的事情的小包装、我们在基本模型之上所做的事情的小包装 尽管这是一项巨大的工作量,但这确实很重要,更不用说我们围绕它构建的产品了。

从某种意义上说,我们确实必须做两件事。我们必须发明底层技术,然后我们必须弄清楚如何将其变成人们喜欢的产品,这不仅仅是实际的产品工作本身,而是如何调整它并使其有用的整个其他步骤 。

记者:以及如何让秤在很多人可以同时使用的情况下发挥作用。

Sam Altman:还有那个。但这是一件众所周知的困难事。我们知道我们必须扩大规模。我们必须去做两件以前从未做过的事情,我想说这两件事都是相当重大的成就,然后是很多其他公司以前必须做的事情,比如扩大规模。

记者:从 GPT-4 到 GPT-4 Turbo,从 8K 到 128K token 的上下文窗口有何不同?

Sam Altman:大多数人大多数时候并不需要一直调到 128。尽管如果我们梦想到遥远的未来,我们将拥有遥远的未来,我们将拥有数十亿的上下文长度。随着时间的推移,你将输入所有信息、所有历史记录,它会越来越了解你,这非常棒。目前,人们使用这些模型的方式并没有这样做。人们有时会发布论文或代码存储库的重要部分,无论如何,但模型的大多数使用在大多数情况下都不会使用长上下文。

记者:我喜欢你的「我有一个梦想」演讲。有一天,人们会根据你的性格或你一生的全部背景来评判你。那很有意思。所以这是你所希望的扩展的一部分,是一个越来越大的背景。

Sam Altman:我看过一次这个互联网剪辑,我会把数字弄错,但这就像比尔・盖茨谈论某些早期计算机上的内存量,也许是 64K,也许是 640K。其中大部分用于屏幕缓冲区。他只是看起来不太真诚,只是无法想象世界最终会需要计算机中的千兆字节内存或计算机中的兆字节内存。只需要遵循技术的指数,我们就会找到如何使用更好的技术。所以我现在真的无法想象有一天上下文长度会达到十亿个。我知道我们会使用它,而且一旦我们拥有它,我们真的不想再回去了。

记者:是的,即使说 10 年后的数十亿也可能看起来很愚蠢,因为它将是数万亿美元。未来将会出现某种突破,感觉就像是无限的上下文。但即使是 120,说实话,我也没有把它用到那个程度,比如放入整本书或部分书籍、论文。你见过哪些有趣的 GPT-4 用例?

Sam Altman:我发现最有趣的事情不是我们可以谈论的任何特定用例,事实上,它可以很好地完成很多事情。你可以使用 GPT-V,用它来帮助你写代码、做搜索、编辑论文。对我来说最有趣的是那些只是使用它作为工作流程开始的人。

记者:我在很多事情上也是这样做的。我用它作为看书的阅读伙伴。它帮助我思考,帮助我思考想法,尤其是当书籍是经典的时候。我发现它在涵盖广泛的主题上通常比维基百科要好得多。它在某种程度上更加平衡和更加细致,激发了我比维基百科文章更深入的思考。我不太确定那是什么。

当我开始使用 GPT 时,我对知识任务的担忧之一是我通常必须在之后进行事实检查,例如检查它是否提出了虚假内容。你怎么知道 GPT 可以提出听起来确实令人信服的假东西?那么你如何将其扎根于事实呢?

Sam Altman:这显然是我们非常感兴趣的领域。我认为即将推出的版本会变得更好,但我们必须继续努力,今年我们不会全部解决。

记者:可怕的是,随着情况变得更好,你会开始越来越不进行事实核查,对吗?

Sam Altman:我对此有两种看法。我认为人们对技术的使用比我们通常认为的要复杂得多。人们似乎真正理解 GPT 或任何这些模型都会产生幻觉。如果它是关键任务,你就必须检查它。

记者:但记者似乎不明白这一点。我见过记者含糊地使用 GPT-4。

Sam Altman:在我想斥责记者的一长串事情中,这并不是我对他们最严厉的批评。

记者:嗯,我认为更大的批评也许是作为一名记者的压力和激励是你必须非常快地工作,所以(ChatGPT)是一条捷径。新闻工作需要数天和数周的时间,并会奖励深度新闻报道。此外,以平衡的方式呈现内容的新闻报道就像在赞扬人们的同时批评他们,批评是获得点击的东西,捏造的东西也会获得点击和完全错误描述的头条新闻。我相信很多人都会说,「好吧,所有这些戏剧性的内容可能都会获得很多点击」。

Sam Altman:可能是这样。

记忆和隐私

记者:你赋予了 ChatGPT 拥有记忆以及关闭记忆的能力。我希望我也有这样的能力,打开还是关闭取决于自己。我认为酒精可以做到这一点,但效果不佳。

Sam Altman:我们的探索还处于早期阶段,但我认为人们想要的,或者至少是我自己想要的,是一个能够了解我并随着时间的推移对我变得更有用的模型。这还处于早期探索阶段,我认为还有很多事情要做。

记者:完成这项任务有多难?因为现在 ChatGPT 更像是记住一些小事实和偏好等等。难道你不想让 ChatGPT 记住你在 11 月份经历的戏剧性事件吗?

Sam Altman:我不仅希望它记住这一点,我也希望它能够整合其中的教训,并提醒我将来应该采取哪些不同的做法或要注意什么。我们从生活经验中获益,同样我希望 AI 智能体也能从这些经验中获益。想象一下,如果上下文长度达到数万亿,那么我可以把我一生中与任何人进行过的每一次对话都放在那里,比如我可以输入所有电子邮件、所有信息。每次我问问题时 ChatGPT 都会在上下文窗口中查询,我认为这非常酷。

记者:是的,如果那样的话会非常酷。此外人们非常担心隐私问题。你怎么看?

Sam Altman:对于隐私与 AI 之间的权衡,你、我可能有不同的看法。

记者:但公司对于用户信息的选择应该有一定程度的透明度。就像公司正在收集你的所有数据,但他们会说使用数据是有充分理由的,但具体细节尚不透明。

Sam Altman:这完全正确。刚才聊到去年 11 月发生的事,我认为这是一件非常令人痛苦的事情,让我在很长一段时间内无法工作。毫无疑问,那段时间我必须做的最艰难的事情就是继续工作,尽管当时我处于震惊和痛苦之中,但我必须尝试回到 OpenAI 并将各个部分拼凑起来,没有人真正关心这一点。有一天早上我醒来,我想,这对我来说是一件可怕的事情。我想我可能会永远感觉自己是受害者,或者我可以说这是我一生中接触过的最重要的工作,我需要回到 OpenAI。有时我会在半夜醒来思考这件事,但我确实觉得有义务继续前进。

记者:是的,这里面会有一些挥之不去的东西。我担心的是你提到的信任问题,对别人多疑,而不是相信每个人或大多数人,就像相信你的直觉一样。这是一个棘手的问题。你似乎已经泰然处之了,学到了很好的教训,这很好。我只是想问一些问题,您对 GPT 能做什么、不能做什么的一些直觉。因为它生成每个 token 分配大约相同的计算量。这种缓慢思考、顺序思考的方法是否有创新?

Sam Altman:我认为将会有一种新的思维模式。

记者:它在架构上会与我们现在看到的 LLM 类似吗?

Sam Altman:我可以想象很多方法来实现这一点。我认为这比你所提出的问题更重要,那就是,我们是否需要一种方法来进行更慢的思考,而答案不必马上得到……

Sam Altman:我还没准备好讨论 Q*

记者:这确实让我想起了 Q* 背后的神秘传说。这个神秘的 Q* 是个什么项目?也是在同一个核设施里吗?

Sam Altman:我们没有核设施。

记者:拥有核设施的人都这么说。

Sam Altman:我倒是希望有一个秘密的核设施,但是我们没有。

记者:好吧。

Sam Altman:也许有一天会有的。

记者:未来某一天?好吧,人人都可以有梦想。

Sam Altman:OpenAI 并不是一个擅长保守秘密的公司,我们会被很多方方面面的消息泄露所困扰,如果我们真的有核设施就太好了。

记者:那你能说一下 Q * 是什么吗?

Sam Altman:我还没准备好讨论这个问题。

记者:这样的回答证明你们的研究很神秘,Sam。

Sam Altman:我的意思是,我们致力于各种研究。此前我们已经说过了,我们追求的重要方向是让系统更好的推理,我们还没有破解这方面的密码,因此,我们兴趣很大。

记者:是否会有这样一个时刻,Q * 或者其他研究,会出现类似 ChatGPT 的飞跃。

Sam Altman:这是个好问题,你想问我是怎么看待这件事的吗?这很有趣。对我来说,这一切都是连续的。

记者:我们现在谈论的研究趋势,基本上是沿着指数斜率上升的。这是作为一个局外人的角度观察到的。但对你来说,有没有这种感觉?

Sam Altman:我们现在采用迭代部署的方式进行研发,而不是秘密进行直到完成 GPT-5,我们决定发布 GPT-1、2、3 和 4,其中一个原因是我认为人工智能和惊喜不应该搭配在一起。我认为,OpenAI 所做的最好的事情之一就是这个迭代策略,我们让世界关注 AI 进步,认真对待 AGI。我认为这是非常好的。但是,像你和其他人说的,你们仍然感觉到这些发展趋势出现跳跃的感觉,这让我想到,也许我们应该更加迭代地发布我们的产品。我不知道这意味着什么,我没有现成的答案,但我们的目标不是给世界带来震惊性的更新,我们的目的正好相反。

记者:是的,更加迭代将会非常棒。我认为这对每个人来说都是有益的。

Sam Altman:这正是我们正在尝试做的,这是我们非常明确的策略,我认为我们在某种程度上没有达到这个目标。所以也许我们应该考虑以不同的方式发布 GPT-5 之类的东西。

记者:是的,但人们更倾向于庆祝,例如庆祝生日。

Sam Altman:人们确实喜欢里程碑式的事物。我能理解,我想我们也喜欢里程碑式的研究。在胜利的基础上开始下一件事是很有趣的。但是,我觉得我们在这方面有些许错误。

GPT-5 发布时间未知,但会有新模型

记者:那么 GPT-5 什么时候发布呢?

Sam Altman:我不知道。这是诚实的回答。

记者:哦,这是诚实的回答。如果是今年,眨两次眼。

Sam Altman:今年我们将推出一款令人惊叹的新模型。我不知道该怎么称呼它。

记者:这就引出了一个问题,你们如何释放这个东西?

Sam Altman:我们将在接下来的几个月中发布许多不同的东西。我认为,在我们发布一个类 GPT-5 的模型(你可以理解为 GPT-5,或者不是,又或者比你对 GPT-5 的期望稍差或好一点的模型)之前,我们有很多其他重要的事情要先发布。

记者:我不知道对 GPT-5 有何期待,这让我既紧张又兴奋。不管它最终是否被称为 GPT-5,我暂且称为 GPT-5,在实现之前有哪些需要克服的挑战和瓶颈?是在计算端吗?还是技术方面?

Sam Altman:所有这些都有。什么是最重要的?算力更大的硬件?还是其他东西。在我看来这些都是。我认为 OpenAI 做得非常好…… 引用 Ilya 的原话,就像是「我们将 200 个中等大小的东西相乘,将会变成一个巨大的东西。」

记者:所以这是一种分布式的持续创新?

Sam Altman:是的。

记者:技术方面也是这样?

Sam Altman:尤其是在技术方面。

记者:即使有详细的技术实现也这样?

Sam Altman:是的。

记者:就像你对每一个细节都做得很细致,这在不同的或者完全不同的团队中是如何运作的?这些中等大小的东西是如何变成一个巨大的 Transformer 的?

Sam Altman:有些人的想法是把所有事情放在一起,但大部分人需要先在脑海里构建图景。

记者:你的意思是说各个团队、各个贡献者应该试图把握更大的图景?

Sam Altman:在一个高层次上,是的。你当然不可能确切知道每一块是怎样工作的,但我认为有时候将视角拉远,观察整个图景是有用的。这对于技术问题、商业创新都很重要,最终结果会以惊人的方式汇聚在一起,即使大多数时间你专注于某一区域的细节中,拥有对整个图景的理解也会带来意想不到的洞见。实际上,我可以分享一个非常有价值的东西,我曾经对科技行业中所有或大部分前沿动态有一个好的全景图。通过这个全景图我能看到这些领域的连接或新的可能性,如果我只深入一个领域,我就不可能有这样的想法,因为我没有所有的数据。而现在我不再有这种感觉了。

记者:你不再是过去的那个 Sam 了。

Sam Altman:可能吧,现在的工作和我过去的工作非常不同。

Altman 否认 7 万亿美元芯片计划

记者:接下来我们聊聊前段时间你在 X 上表示要筹集 7 万亿美元建造芯片厂的事。

Sam Altman:我没有发 X。我从来没说过「我们筹集 7 万亿美元」之类的话。

记者:是别人说的吗?

Sam Altman:是的。

记者:但我记得你说过「Fuck it, maybe eight」。

Sam Altman:好吧,一旦有什么误导信息我会发个梗图。

记者:一方面你会发梗图,但另一方面错误信息可能是别人基于某种洞察推测的。

Sam Altman:我认为算力将是未来的货币,它将成为世界上最珍贵的商品之一,我们应该大力投资以产生更多的算力。算力资源将是一个不同寻常的市场,现在人们考虑的大部分是手机芯片市场,世界上有 80 亿人,可能有 70 亿人拥有手机,或许是 60 亿,我们以 60 亿来说,假如他们每两年升级一次手机,那么每年市场上需求的手机芯片量是 30 亿。如果芯片公司生产了 300 亿个芯片,但按照人们的需求并不会卖出 10 倍多的手机,因为大多数人只有一部手机。

但算力不同,我们以价格来说,在其价格 X 时,世界会使用这么多的算力,在价格为 Y 时,世界又会使用另一个数字的算力。如果算力真的很便宜,我会让它整天阅读我的电子邮件,给我的工作提出建议,或者尝试治愈癌症,如果算力很贵,或者我们只会使用它来尝试治愈癌症。

所以我认为世界将会需要大量的算力,实现这一过程面临种种困难。其中能源是最困难的部分,此外建设数据中心也很难、制造足够的芯片同样也很难。但这似乎是事物的发展方向。我们想要的算力现在还很难推断出来。

记者:如何解决能源问题?核能?核聚变?

Sam Altman:这就是我所相信的。

记者:谁来解决呢?

Sam Altman:我认为 Helion (一家美国聚变研究公司)做得最好,我很高兴看到正在进行的核聚变竞赛。我认为,核裂变也是相当惊人的,我希望世界能够重新接受这一技术。这段历史的结束对我来说真的很难过,希望我们能以一种有意义的方式回到过去。

记者:对你来说核裂变是不是困难的一部分?就像我们目前拥有的核反应堆一样?因为很多人因为切尔诺贝利等事件而感到恐惧?

Sam Altman:我认为我们应该建造新的反应堆。我认为这个行业陷入停滞是一件很遗憾的事。

记者:我不知道你是否了解人类,人类似乎真的很害怕核裂变,我们必须赢得人们的支持并展示它的安全性。

Sam Altman:如果这样的话,我很担心 AI。

记者:我希望人工智能可以帮助我们看到事物的真相,保持事物的平衡,让人类知道什么是真正的风险以及实际的危险是什么。在这个领域与 Google、Meta、xAI 等公司竞争的利弊是什么?

Sam Altman:我想我有一个非常直接的答案,也许稍后我能想出更多的细微差别,但好处似乎很明显,那就是我们能更快、更便宜地获得更好的产品和更多的创新,所有这些都是各大公司展开竞争的好处。但是如果我们不小心,可能会导致军备竞赛的加剧,这让我感到紧张。

记者:你是否感受到军备竞赛的压力?

Sam Altman:在某些方面是肯定的。我们花了很多时间讨论优先考虑安全的必要性。我已经说过 AGI 的发展趋势,你能想象在一个象限里,一是 AGI 开始的时间线还是缓慢的,之后 AGI 发展的速度短暂起飞或快速起飞。我认为短时间 AGI 发展起飞慢是最安全的也是我最希望我们进入的区域。我想确保我们能慢速起飞。

记者:你与马斯克在安全问题上存在一些分歧。

Sam Altman:至少埃隆说过他非常关心人工智能的安全问题,并且真的很担心,我认为他不会在不安全的情况下参加竞赛。

在某些方面当然是肯定的。我们花了很多时间讨论安全的重要性,我以前就说过。

记者:是的。但我认为,在这方面的合作对每个人都是有益的。

Sam Altman:这不是他擅长的东西。

记者:他以关心人类而闻名,让人类从合作中受益。最后,我真心希望人性能战胜一切。

Sam Altman:我在想,前几天有人提醒我,在他超越杰夫・贝佐斯成为世界首富的那天,他在 X 上向杰夫・贝佐斯颁发了一枚银牌。我希望随着人们开始研究 AGI,这样的事情会少一些。

记者:我同意。埃隆是我的朋友,他是一个有理想的人,也是有史以来最重要的人之一。

Sam Altman:埃隆的神奇之处在于,我非常尊重他。我想我们需要他。我们所有人都应该支持他,并需要他在接下来的阶段作为领导者挺身而出。

谷歌和 Gemini

记者:在搜索的帮助下,谷歌在过去的 20 年里一直占据着主导地位,在世界信息获取、互动方式等方面。目前谷歌感到非常紧张,但对于这个领域的所有人来说,他们都在思考,人们将如何获取信息?就像你说的,人们会以 GPT 为起点。那么,OpenAI 是否会真正承担起谷歌 20 年前开始做的这件事,也就是「获取信息」?

Sam Altman:我觉得这很无聊。我的意思是,如果问题是我们能否打造一个比谷歌或其他公司更好的搜索引擎,那么当然,我们应该去做,人们应该使用更好的产品,但我认为这太不值一提了。谷歌向你展示 13 个广告,然后是 10 个蓝色链接,这是寻找信息的一种方式。但让我感到兴奋的并不是我们可以复制谷歌搜索,而是也许有更好的方法可以帮助人们查找信息、采取行动并综合信息。事实上,我认为 ChatGPT 在某些用例中就是这样,希望我们能让它在更多用例中都能如此。

但我不认为「我们如何比谷歌更好地为你提供 10 个排名靠前的网页」多有趣,还不如「我们如何帮助你得到你需要的答案或信息?」,展开说就是:在某些情况下,我们如何帮助你创建答案或信息;在另一些情况下,我们如何帮助你综合答案或信息;在另外一些情况下,我们如何帮助你找到答案或信息?

很多人都想做一个比谷歌更好的搜索引擎,这是一个很难解决的技术问题,也是一个很难解决的品牌问题,更是一个很难解决的生态系统问题。我认为世界不需要另一个谷歌。

记者:那么将聊天客户端(如 ChatGPT)与搜索引擎集成在一起呢?

Sam Altman:那就更酷了。

记者:这很酷,但很棘手。如果你只是简单地做,会很尴尬,因为如果你只是把它塞进去,也会很尴尬。

Sam Altman:正如你可能猜到的,我们对如何做好这一点很感兴趣。这就是一个很酷的例子。LLM 和搜索的交集,我想还没有人破解过。我很想去做这件事,那一定很酷。

记者:广告方面呢?你有没有考虑过货币化?

Sam Altman:作为一种审美选择,我有点讨厌广告。我认为,出于种种原因,广告需要出现在互联网上,让它发展起来,但这只是一时的行业。现在的世界更丰富了。我喜欢人们为 ChatGPT 付费,并知道他们得到的答案不受广告商的影响。我相信有一个广告单元对 LLM 来说是有意义的,我也相信有一种方法能以不带偏见的方式参与到交易流中去,但这也很容易让人联想到对未来的悲观想象:你问 ChatGPT 一些问题,然后它会说「哦,你应该考虑一下购买这个产品」或者「你应该考虑一下去这里度假」之类的。

我不知道,我们有一个非常简单的商业模式,我喜欢它,我知道我不是产品。我知道我在付钱,这就是商业模式的运作方式。而当我使用 Twitter、Facebook、谷歌或其他伟大的产品时,我并不喜欢这种广告支持的伟大产品,而且我认为在有人工智能的世界里,这种情况会变得更糟,而不是更好。

记者:我可以想象人工智能会更好地展示最佳版本的广告,其中的广告都是你真正需要的东西。但这样的系统是否总能让广告驱动所展示的内容呢?是的,我认为维基百科不做广告是一个非常大胆的举动,但这也使得维基百科的商业模式极具挑战性。所以你的意思是说,从商业角度来看,OpenAI 目前的做法是可持续的?

Sam Altman:嗯,我们必须弄清楚如何发展,但看起来我们会弄清楚的。如果问题是我是否认为我们可以拥有一项伟大的业务,在没有广告的情况下满足我们的计算需求,我认为答案是肯定的。

记者:嗯,很有希望。我也不想完全抛弃广告……

Sam Altman:我不是这个意思。我想我是说我对广告有偏见。

记者:是的,我也有偏见,只是总体上持怀疑态度。就界面而言,我个人对蹩脚的界面深恶痛绝,这也是为什么 AdSense 刚问世时,相对于动画横幅或其他形式,是一个很大的飞跃。但我觉得,在广告方面应该有更多的飞跃,而不是干扰内容的消费,也不是以一种大的、根本性的方式进行干扰,这就像你刚才说的,就像它会操纵真相来迎合广告商一样。

GPT-5 的跃升

记者:从 GPT-4 到 GPT-5 的飞跃中,你对哪些方面感到兴奋?

Sam Altman:我很高兴能变得更聪明。我知道这听起来像是一个花言巧语的回答,但我认为真正特别的地方在于,它并不是在这个领域变得更好,而在其他领域变得更糟,而是全面发展。我认为,这才是超酷的。

记者:是的,有这样一个神奇的时刻。我是说,你会遇到一些人,你会和一些人出去玩,你会和他们交谈。你无法用语言表达,但他们懂你。这不是智力问题,而是别的东西,这大概就是我对 GPT 进展的描述。这并不是说,你可以指出,「看,你没有理解这个或那个」,但这只是在多大程度上存在这种智力上的联系。你会感觉到,在你所做的蹩脚的表述提示中,你理解了问题背后更深层次的问题。是的,我也为此感到兴奋。我是说,我们都喜欢被倾听和理解。

这种感觉很奇怪。在编程方面,展望未来,你认为 5 到 10 年后人类会做多少编程工作?

Sam Altman:我的意思是,会有很多,但我认为形式会大不相同。也许有些人会完全用自然语言编程。

记者:完全用自然语言?

Sam Altman:我是说,没有人会用代码编程。有些人是这样。没人再用打卡机编程了。我相信你能找到会编程的人,但你知道我的意思。

记者:是的,很少。我一直在找 Fortran 编程的人,连 Fortran 都很难找。我明白你的意思,但这也改变了我们所说的程序员的技能或倾向。

Sam Altman:改变了技能组合。至于改变了多少,我不确定。

记者:编程很难。就像如何缩小最后 1% 的差距?这有多难?

Sam Altman:是的,我认为在其他大多数情况下,最优秀的从业者都会使用多种工具。他们会用自然语言做一些工作,当他们需要用 C 语言写一些东西时,他们就会这么做。

记者:我们是否会在某个时候看到来自 OpenAI 的仿人机器人或仿人机器人大脑?

Sam Altman:会的。

记者:具身人工智能对你来说有多重要?

Sam Altman:我认为,如果我们有了人工智能,而在物理世界中完成事情的唯一方法就是让人类去做,那就太令人沮丧了。所以我真的希望,作为这个过渡的一部分,作为这个阶段性变化的一部分,我们也能获得仿人机器人或某种物理世界的机器人。

记者:OpenAI 在机器人技术方面有一些历史和相当多的工作经验,但在伦理道德方面还做得不够。

Sam Altman:我们是一家小公司。我们必须非常专注。另外,机器人在当时之所以难以普及,原因是错误的,但我们会在某个时候以某种方式重返机器人领域。

AGI

记者:你认为人类什么时候能达到 AGI?

Sam Altman:我以前很喜欢猜测这个问题。后来我意识到,这个问题很不成熟。而且人们对 AGI 的定义也大相径庭。因此,我认为更有意义的做法是,讨论我们什么时候才能建立起具有 X、Y 或 Z 功能的系统,而不是模糊地讨论我们什么时候才能跨过这一里程碑。AGI 也不是终点。它更接近于一个里程碑式的开端。不回避这个问题,我预计到在下个十年的末期,甚至可能更早,我们将拥有相当强大的 AI 系统。我们看着它,会说:”哇,这真的很了不起。” 如果我们现在就能看到这么强大的系统, 也许到那时我们已经完全适应了 AGI 生活。

记者:但如果你给阿兰・图灵展示 ChatGPT 3.5,90 年代的人或许会说:「这绝对是 AGI」,应该会有很多计算机专家会说:「这就是 AGI」。

Sam Altman:是的。但我不认为 ChatGPT 3.5 改变了世界。它也许改变了世界对未来的预期。它的确让更多人认真对待 AI 相关的问题,并让我们的生活走上了新的轨道。这一点也非常重要,我不想低估 ChatGPT 3.5 的作用。如果我发完 ChatGPT 3.5 就退休了,我可能会对我的职业生涯非常满意,但我不认为在回首往事时,提到 ChatGPT 3.5 时说的是:「那是一个真正改变了世界的门槛」。

记者:所以对你来说,你正在追寻能改变世界的重大转变?

Sam Altman:对我来说,这就是 AGI 的部分含义。

记者:这种转变是奇点级别的转变吗?

Sam Altman:不,肯定不是。

记者:那么对于重大转变,类似互联网、谷歌搜索这种级别的,你觉得现在的转变点是什么?

Sam Altman:你感觉现在的全球经济与我们推出 GPT-4 之前有什么不同吗?我觉得你的答案是:没有。

记者:确实没有。对很多人来说,它可能只是一个非常好用的工具。它能帮你解决很多问题,但感觉并没有什么颠覆性的改变。所以,你真正想说的是?

Sam Altman:我是说,人们对 AGI 有各种不同的定义。所以也许你的定义和我不同。但对我来说,我认为改变全球经济应该是 AGI 的一部分。

记者:戏剧性的转变时刻可能还等候在未来。对你来说,AGI 将会出做什么令人印象深刻的事情?你是离 AGI 最近的人了。

Sam Altman:我不知道我对 AGI 的定义是否正确。但我认为,当一个系统能够显著提高科学发现的速度时,这就是一件大事。大多数真正的经济增长都来自科技进步。

记者:我同意你的观点,这也是我不喜欢近年来质疑科学的言论的原因。

Sam Altman:完全同意。

记者:实际的、可测量的科学发现。但哪怕只是看到一个 AI 拥有真正的直觉、科学直觉,那也是不可思议的。

Sam Altman:是的。

记者:你可能会成为构建 AGI 并能够与它交流的人,你会和它讨论些什么? 

Sam Altman:OpenAI 的研究人员肯定会在我之前和 AGI 交流。正如我们之前所讨论的,这是一个错误的思维框架。如果有人对我说:「好的,Sam,我们完成了。这是一台笔记本电脑,这就是 AGI。你可以去和它交流了。」第一个 AGI 不会是这样的。我不认为我会问它:「给我解释一下物理的大统一理论,物理的万物理论。」不过这是我最想问它的问题。

记者:你可以先问判断是或否的问题,比如:「这种理论存在吗?它能存在吗?」

Sam Altman:那么,我以后先问这些问题。

记者:是还是不是。然后基于此,「那里还有其他外星文明吗?是还是不是?你的直觉是什么?」然后你就问这个。

Sam Altman:不过,我的意思是,我不指望第一个 AGI 能回答这些问题,即使只用 「是 」或 「否」来回答。但如果它能,我会首先问你教我的问题的。

记者:也许你可以开始分配概率?

Sam Altman:也许吧。也许我们需要先发明更多的技术,测量更多的数据。

记者:哦,我明白了。只是没有足够的数据。如果它(能获得足够的数据),那么 AGI…

Sam Altman:我的意思是,也许它的回答是:「你想知道这个物理问题的答案,我需要你制造这台机器,进行这五次测量,然后告诉我……」

记者:在数学方面,也许 AGI 能证明一些定理。你对正式探索思维逻辑这方面也感兴趣吗?

Sam Altman:Emmm。

记者:谁首先建造了 AGI,谁就会获得很多权力。你相信自己能承担那么多权力吗?

Sam Altman:我会非常诚实地回答这个问题。我相信我或者其他任何人都不应该对 OpenAI 或 AGI 拥有完全的控制权。我认为需要一个健全的治理系统。比如去年我们董事会的所有「宫斗」。我最初没有提出反对,只是想着,「是的。这是董事会的意愿,尽管我觉得这是一个非常糟糕的决定。」后来,我明确地反对了。我可以解释我前后决策的细微差别,以及为什么后来我觉得可以反对那个决定了。但正如许多人所看到的,尽管董事会在法律上有权解雇我,实际上它并没有完全起效。这本身就是一种治理失败。在这里,我要为当时我的具体情况辩护两句。我认为大多数人都会同意我说的。但经历一系列抓马的「宫斗」事件之后,我很难直视着你的眼睛,对你说,「嘿,董事会还可以随时解雇我。」我从来没有独裁 OpenAI 的想法。我从未有过,也从未想要过超级控制权。即使在所有这些疯狂的事情之后,我仍然不想要。我一直认为公司没有资格对涉及社会方面对问题做决定,我们真的需要政府来制定规则。

不过我又意识到,这意味着像 Marc Andreessen(著名硅谷投资人、Mosaic 浏览器开发者,因马斯克起诉,OpenAI 发布声明,Marc 质疑其中不开源,但每个人都能从 OpenAI 构建的成果里受益的观点,嘲讽道:「怎么不立刻把你的实验室国有化、军事化呢?」)这样质疑 OpenAI 这样的人,他们会说 OpenAI 被规则俘虏了。(规则俘虏:一种政治腐败或政府行政失败的现象。指政制定了某种公共政策或法案,在损害公众利益的状况下,使特定领域商业或政治上的利益团体受益)我不愿意在这方面被误解。这不是真的。时间将会证明为什么这一点很重要。我为 OpenAI 做出了很多糟糕的决定,也有很多好的决定,我对过去的总体表现还是挺骄傲的。但我认为任何一个人都不应该有,我也不认为任何一个人将会有控制 AGI 的权力。现在思考这个问题还比较抽象,但 AGI 正在整个社会中以一种良好和健康的方式发生。但我认为任何一个人都不应该有控制 AGI 的权力,或者向 AGI 发展的方向。这样的事情现在也在发生。

记者:感谢你的分享。你的想法很有洞察力,特别是你知道董事会在法律上有权解雇你,但人类可以操纵大众,从而凌驾于董事会之上等等。但我认为这个故事还有更正面的版本:即人民仍然拥有权力,所以董事会也不能过于强大。这其中存在权力的平衡。

Sam Altman:权力平衡当然是好事。

记者:你担心失去对 AGI 的控制吗?很多人担心的不是国家统治者,不是安全问题,而是 AI 本身存在的风险。

Sam Altman:就我目前的看法而言,这不是我最担心的问题。曾经有一段时间我对此非常担心。未来可能继续成为我最担心的问题。但现在这不是我最担心的问题。

记者:你不担心 AGI 失控是为什么呢?因为还有很多其他事情需要你担心,对吧?你会被 AGI 失控吓到吗?我们 ——

Sam Altman:当然。

记者:…… 可能会被吓到?

Sam Altman:当然。说这不是我最担心的问题并不意味着我们不需要关注它。我们需要努力解决这个问题。虽然这非常困难,但我们这里有很棒的人在从事相关工作。还有很多事情需要被适当地处理。

记者:对你来说,现在要逃出这个「思维定式」很难吧,考虑到网上的言论…

Sam Altman:我们之前谈到了戏剧性风险。那就是一种戏剧性风险。这可以改变人们对这个问题的普遍看法。有一大群非常聪明又怀有很大善意的 AI 安全研究人员过分关注这个问题。我认为他们没有取得太多进展,但却过分纠结于这个问题。我实际上很高兴他们这么做,这个问题需要被关注。但太过关注会使得很多其他非常重要的与 AI 相关的风险被排除在讨论之外。

记者:鉴于 Sora 生成模拟世界的能力,如果你有过我们生活在由 AI 系统生成的模拟世界的想法,Sora 是否增加了你的信念?

Sam Altman:有点吧。我不认为 Sora 是最有力的证据。我认为每个人对我们能够生成世界这一事实都或多或少增加了点信念吧,或者至少增加了对这个观点的开放性。但我确信我们最终能够做到类似 Sora 所预示的事情。它发生得比我想象的要快,但我猜那将不是一个重大的更新。

记者:是的。但事实是…… 而且可以预见,它会变得越来越好…… 你可以基于训练数据生成全新的世界,用 AI 做到这一点似乎很容易。创建宇宙、一个或超现实或很真实的电子游戏世界都将变得很容易。那么先通过 VR 头显,再基于物理的层面上,迷失在那个虚拟世界中又会有多容易呢?

Sam Altman:最近有人和我讨论过这个问题。有时候会有这些听起来很简单但令人迷惑的见解。举个例子,比如平方根函数,四的平方根,没问题。二的平方根,好的。很容易就能给一个孩子解释清楚这些简单的平方根的概念,通过观察一些简单的几何也能看到,你再问负一的平方根是什么?这和你提出的问题类似,令人迷惑的原因在于负一的平方根将你带入了另一种现实。

你可以想出很多其他的例子,但我认为这个平方根运算符在很多关于新知识领域的想法都适用的。我认为有很多这样的运算符。我认为,人们之所以会认为自己所赞同的模拟假说都比之前更有可能成真,其中有很多运营的成分。但对我来说,Sora 的工作并不是我最关心的五件事之一。

记者:我确实认为,从广义上讲,人工智能将是通往另一波 C 级现实的最佳通道。

Sam Altman:这似乎是肯定的。

记者:你认为当我们仰望天空时,还有其他的外星文明,智能的文明存在吗?

人类智慧

Sam Altman:我觉得答案是肯定的。费米悖论非常令人费解。

记者:我觉得智能不擅长处理这样强大的技术。与此同时,我相信外面存在着大量的外星智慧文明,只是太空旅行真的很难。这也让我思考智能的本质。也许我们真的对智能的本质视而不见,也许 AI 能帮助我们看清这一点。这并不像 IQ 测试和简单的解谜那么简单,还有一些更重要的东西。那是什么让你对人类的未来充满希望?

Sam Altman:我觉得过去的东西很多。我的意思是,我们只要看看人类在不长的时间里做了些什么,巨大的问题,深刻的缺陷,很多让人超级羞愧的事情。但总的来说,非常鼓舞人心。给了我很多希望。

记者:我们一起向更美好的未来迈进。

Sam Altman:我其实很好奇,AGI 是更像某个单一的大脑,还是更像我们所有人之间的社会支架?你与你的曾曾曾祖父母的基因变化不大,但能力却大不相同,所知道的也大不相同。这并不是因为生物学上的变化。你可能变得更健康了一些,这是因为有了现代医学,你也吃得更好了,等等。但你所拥有的,是人类共同创造的。一个人是没法儿制造 iPhone 的,一个人也没法儿去发现所有的科学。但你可以使用它,这种共同创造给了你难以置信的能力。从某种意义上说,我们共同创造了这一切,这让我对未来充满希望。这是一件集体性很强的事情。

记者:是啊,我们站在巨人的肩膀上。当我们谈到 AI 风险时,你提到有时你会担心自己的生命安全。你想过自己的死亡吗?你害怕死亡吗?

Sam Altman:如果我明天就中枪了,而且我今天就知道了,我会说,「哦,那太可悲了。我想直到接下来将发生什么,这很让人好奇。」不过,大多数时候,我都会为自己的生命感到庆幸。

记者:我也是。现在这样的生活太棒了,我可以享受到人类的伟大创造,我相信 ChatGPT 就是其中之一,还有 OpenAI 所做的一切。Sam,很荣幸能再次与你交谈。

Sam Altman:很高兴与你交谈。感谢您的邀请。

本文来源于公众号机器之心,作者机器之心编辑部。

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...