图片来源:Not Boring Capital
Z Highlights:
- AI发展的乐观预期落于“金发姑娘区域”:人类正处于一个幸运的“金发姑娘区域”,在AI的发展上,我们可能会达到一个完美平衡点。在这个区域,AI作为工具的能力不断增强,但它们不会获得超越或取代人类的自主性和意图。“情境意识”理论提出AI的进步可能会在2027年达到AGI,但Not Boring Capital 创始人Packy McCormick认为我们更可能走向一个AI作为有力助手的未来。
- AI的局限性与人类创造力的重要性:尽管AI在特定任务上可能表现出色,但AI目前还缺乏真正的自主性和创造性。Packy通过比较AI和人类在解决新问题、提出新想法方面的差异,指出AI的局限性。他认为,即使AI在处理现有问题上越来越能干,人类在提出新问题和探索未知领域方面仍将发挥不可替代的作用。
- AI是亟待开发的新石油:Packy将AI比作石油——一种经济上极其有用的资源,可以被人类开采、提炼并用于推动各种进步。他指出,AI的发展可能会像20世纪中叶的石油工业一样,带来巨大的经济和社会发展。AI的广泛应用将需要大量的计算资源、数据和能源,这将推动相关技术和行业的增长。
- 对未来AI应用和社会影响的展望:AI的应用将带来广泛的变化,包括工作性质的改变、新产业的诞生和社会结构的调整。他提出,我们必须为这些变化做好准备,确保AI的发展能够惠及社会各阶层,并用于解决人类面临的重大挑战,如疾病治疗、环境保护和经济发展。同时,他也提醒我们关注AI发展可能带来的伦理和社会问题,如隐私保护、就业替代和决策透明度等。
嗨,朋友们 ,欢迎回到 Not Boring!在过去的几周里,我一直在深思Leopold Aschenbrenne提出r的《情境意识》,他在里面主张,只要继续以人工智能实验室一直在扩展的速度扩展有效计算,就将在2027年实现通用人工智能(AGI),紧接着不久就会出现超级智能(ASI)。
很多人非常认真地对待这篇论文,也有很多人很快就驳斥了它,但我认为存在一条非常乐观且最有可能的中间道路,这篇文章即将呈现。让我们开始吧。
AI的金发姑娘区域
图片来源:Not Boring Capital
人类拥有天文级别的幸运。地球存在于天文学家所说的金发姑娘区域——距离太阳恰到好处,适宜居住——这只是无数让作为即将创造思考机器的猴子般的我们能够恰到好处在这里的因素之一。
我们的幸运程度让我怀疑是否有某种力量——上帝、模拟创建者、充满爱的宇宙、资本主义,随你挑——希望我们成功。作为幸运的十亿个例子之一,能源转型的时机几乎完美得难以置信:没有气候危机,我们可能会陷入一个更具毁灭性的能源危机。
有些人认为我们的运气即将耗尽。数十亿年的进化,一旦我们创造出在各个方面都比我们更优秀的AI,就都化为乌有。最好的情况是,我们将成为无足轻重的世纪变革随行者。我不这么认为。除非有证据证明我们不幸运,否则人类还将是难以想象的幸运。只需要相信图表上的直线就能明白我们即将比以往任何时候都更幸运。
听着,我太笨了,看不懂所有尖端的AI研究论文,也没深入AI对话的细节。这只是我作为一个左撇子局外人基于传统的人类直觉的常识观点,比我聪明得多的人可能会不同意。
我要论证的是,数据指向一个AI“金发姑娘区域”:随着我们提供越来越多的数据和计算能力,助手们变得越来越能干,而且它们完全没有欲望或能力超越我们。
AI更像是石油而不是上帝。它是一种作为我们所做的一切的倍增器并且可以扩展和提炼的经济上有用的商品。汽油并没有取代马车,它让马车能够更快和更远地运送人类。
如果AI是上帝,政府应该将其锁定。但如果它是石油,他们应该尽一切努力促进其发展,并释放他们国家创业精神的活力,将其提炼成越来越有用的产品。
如果AI是上帝,你不妨就此放弃。但如果它是石油,你可以将每一次进步都视为你手头的另一个工具,并为这些进步将不可避免地创造的真正的颠覆和机会做计划。
相信AI将成为上帝是虚无主义的,相信它是石油是乐观的。
我难得有一次长途驾驶,孩子们在后座上睡着了,而Puja不在前座。如果她在,她绝不会让我听四个小时的Dwarkesh Patel和Leopold Aschenbrenner,这是可以理解的。Leopold是一位年轻的天才,他19岁就以哥伦比亚大学全班第一的成绩毕业,他最近被现在已不存在的OpenAI超级对齐团队解雇了。他刚刚发布了一篇论文,《情境意识:未来十年》,在其中他主张,按照我们目前的发展轨迹,我们很可能在2027年拥有AGI,不久之后就会出现超级智能(ASI)。
“这不需要相信科幻小说,”他在推特上说,“只需要相信图表上的直线。”
图片来源:Not Boring Capital
在论文和播客中,Leopold 论证说,通过更多的计算能力、更高效的算法和“解除限制”,我们将在接下来的三年内将“有效计算”扩展3-6个数量级(10倍增长,“OOMs”),这一跃升与从 GPT-2 到 GPT-4 的跃升一样大。
如果那次跃升将模型从一个幼儿园小孩转变为一个聪明的高中生,那么下一次会不会将其从聪明的高中生转变为任何领域的博士?那不就是 AGI 吗?
在听和读论文的过程中,我感到了认知失调:我同意 Leopold 的逻辑,但结论感觉不对劲。经过一番思考,我想我弄清楚了原因。我同意 Leopold 的地方在于我们应该相信曲线。我不同意的地方在于 GPT-4 是一个聪明的高中生。
所以这篇文章将做三件事:
1.回应 Leopold 的论点。
2.解释为什么这可能意味着我们正朝着一个 AI 金发姑娘区域前进。
3.看看如果 AI 是新石油,世界将会变成什么样子。
GPT-4 并不等同于一个聪明的高中生,但如果我们要拟人化也行。
遇见查德
想象一个聪明的高中生。我们叫他查德。查德完全没有活力,没有动力,没有目标,没有冲劲。大多数时间,他躺在床上睡觉,而他的父母在他床边的小扬声器上以超高速度播放所有人类知识。不知怎的,查德吸收并记住了所有这些知识。
图片来源:Not Boring Capital
偶尔,查德的父母会叫醒他并问他问题。当他年轻的时候,他会说些相当不连贯的话,但你可以看出他差不多接近正确答案。现在他长大了,吸收了更多的信息,他可以滔滔不绝,不管父母问他什么,他通常都能回答正确。
图片来源:Not Boring Capital
如果你是查德的父母,你会感叹:“天哪,这招真管用。”你会竭尽所能获取所有音频知识通过扬声器播放给他听,你会以不同的音量播放,你会剔除所有不良信息,你会给他吃医生建议的有助于大脑发育的超级食物,你会花钱请聪明人录制他们如何解决真正困难问题的详细指导,这样他就能学会方法而不仅仅是知识。你会在他眼前播放整个YouTube的内容,你甚至可能会给查德买一个他可以穿戴的外骨骼,帮助他从床上起来,走进现实世界,在那里他可以在物理层面做事情,吸收更多关于世界如何运作的信息。
图片来源:Not Boring Capital
这一切都有点奏效了!查德不断学习更多东西。他可以用外骨骼移动重箱子,甚至在你向他要一些健康的东西时递给你一个苹果。当邻居们问他问题时,即使是非常难的他都能答对,比如“你能帮我们解决这个蛋白质折叠问题吗?”有一天会是“你能帮我为这笔我正在做的并购交易写一份复杂的法律协议吗?”查德是一个非常聪明的高中生,你非常为他感到骄傲。
但在内心深处,你有点担心。因为无论你做什么,无论你给他播放多少或什么样的信息,无论你买了多么好的外骨骼,查德似乎都不在乎。他似乎什么都不想要。作为父母的直觉告诉你,查德和其他高中生非常不同。见鬼的是,从某些方面来说,他甚至和幼儿园的孩子很不一样。
相对而言,幼儿园的孩子是笨蛋。他们几乎不能组成一个句子,也不能做基本的乘法,但他们知道自己想要什么。他们早上醒来叫醒父母玩耍,去学校和其他孩子玩耍,他们甚至在没有人告诉他们的情况下发明自己的游戏和语言。当有人对他们不好时,他们会难过,当有人给他们一个冰淇淋蛋筒时,他们会欣喜若狂。
他们有主动性和目标,即使是很小的目标:得到冰淇淋;得到一个新玩具;熬夜,等等。
随着孩子们长大,他们的主动性和目标也在扩大。
如果查德能起床去上学,他将和那些本可以成为他同学的狂野高中生一起学习。在周末,他们偷偷溜出去,偷父母的车,去参加派对,试图亲吻其他狂野的高中生。在工作日,他们开始弄清楚他们想要怎样度过他们的生活——他们想去哪所大学,什么让他们着迷,他们想对世界产生什么样的影响。他们远没有查德聪明,但他们有一种你从未在你非常聪明的儿子身上看到过的活力。
如果查德真的想有所作为,你需要弄清楚如何让他更像其他孩子,拥有自己的目标和欲望,甚至只是早上自己起床,自愿开始做事,而不需要别人要求。但无论你尝试什么,你都做不到,所以你专注于你能做的:让查德变得真的非常非常聪明。
也许你希望在某一点上他变得足够聪明,他就会看到所有其他孩子想要东西和做事,然后开始自己想要和做事。与此同时,你的邻居开始意识到查德变得有多聪明,他们开始请他帮忙做各种各样的事情。
“嘿查德,你能帮我写这个营销文案吗?”邻居吉尔问,查德做到了。
“查德,我的小伙子,你能帮我开发一些药物吗?”邻居吉姆问,他也做到了。
邻居们对查德的帮助非常满意,他们开始付给你很多钱,而且,因为你爱你的儿子,你把那些钱花在了更多、更复杂的教育上,希望他最终能开始表现得更像正常孩子,并且知道无论如何,他越聪明,你的邻居们就会付给他越多的钱。而且这有点效果,查德不断变得更聪明。他比每一个大学生都聪明,之后胜过每一个博士。
图片来源:Not Boring Capital
他能做越来越多的事情。最终,只要他之前听过的某些人做过类似的事情,几乎每次邻居请他做某事,无论是脑力劳动还是体力劳动,他都能做。这对你们镇来说是个好消息。随着邻居们利用查德做越来越多不可思议的事情,你们镇成为了世界上和历史上最富有的镇,唯一限制你们镇成长的是邻居们问查德帮忙的问题的创造性。
但可怜的查德,他只是呆在床上,无精打采,等着被叫醒去帮助下一个请求,不在乎是否有人再次叫醒他。查德是一个真正的男孩吗?
人们想出了许多方法来确定AI是否是AGI。最著名的是图灵测试:评估者通过计算机与人类和AI进行聊天,如果评估者无法分辨出哪个是人,哪个是AI,那么AI就展示了类似人类的智能。
图片来源:Not Boring Capital
一个现代的精细调整的大型语言模型可以轻松通过图灵测试,但它通不过直觉测试。
直觉测试是这样的:我真的认为我对面的那个东西实际上是一个人类吗?
AGI —— 一个能够在所有智力任务中与人类通用智能相匹配的AI —— 或者ASI(人工超级智能)—— 一个超越人类智能并能够自我改进的AI。这意味着,也令人害怕的是,某种如此强大的东西使得人类在今天我们做的绝大多数事情中不再被需要。
所以人们不断改变目标,用SAT、国际数学奥林匹克竞赛等来测试大型语言模型。
在另一集Dwarkesh节目里最新的一集中,谷歌AI研究员Francois Chollet认为大型语言模型不是通往AGI的道路,因为它们只会记忆而不会推理。他提出了一个测试——ARC-AGI基准测试——这个测试会给模型提出一些它们以前从未见过的简单问题,作为真正测试AGI的方法。
图片来源:Not Boring Capital
但无论查德是否能在SAT考试中取得优异成绩或解决ARC测试,我仍然不认为查德通过了直觉测试。你可以想象镇上的居民在他背后窃窃私语:“那个孩子有点不对劲。”他很聪明,但他们能感觉到。
Leopold在《情境意识》中提出的论点有很多值得称赞的地方。相信曲线有一种美丽的简洁性。我喜欢相信曲线,我曾写过一篇关于技术中指数增长之美的文章,在长期曲线与人类分析的较量中,我选择相信曲线。
但正如老话所说:信任(曲线),但要验证(映射)。
相信但需验证
2012年,William Hertling在Brad Feld的博客上写了一篇很棒的文章 How to Predict the Future。这篇文章完全是关于相信曲线的,具体来说,是关于相信硬件曲线。
1996年,Hertling绘制了调制解调器速度图,预测2005年将可以实现视频流。九年后,2005年2月,YouTube诞生了。他预测音乐流媒体将在1999年或2000年出现。Napster于1999年问世。
在2012年的那篇文章中,他追踪了每秒百万条指令(MIPS)随时间的变化。通用计算机何时能够模拟人类水平的智能?答案是在2024年到2050年之间,这取决于你选择的人类智能复杂性的估计以及用于模拟的计算机数量。而且,根据你选择的人类智能复杂性的估计,他几乎完全命中了。无论AI是否智能,GPT-4在模拟人类智能方面做得非常好。
Hertling描述了他用来预测未来的三个简单步骤:
第一步:计算年度增长
第二步:预测线性趋势
第三步:将非线性事件映射到线性趋势
换句话说,这个方法就是绘制到目前为止发生的年度增长,将这些增长外推到未来,然后预测在各种未来时间点可能实现的新能力。
这正是Leopold所做的,我认为他准确地完成了前两步。
图片来源:Not Boring
将AI进步考虑为有效计算的能力数量级(OOMs)是一个非常有用的贡献,预测这些数量级可以让你预测许多有用的事情。
虽然像1000亿美元甚至1万亿美元的集群听起来很疯狂,但它们显然是在曲线上的。我有什么理由不同意呢?我同意他的观点,尽管获取足够的数据和电力来保持曲线增长的挑战是真实存在的,大公司将从AI中赚取足够的钱来证明这样大规模的投资是合理的,资本主义总能找到方法。正如Hertling所写,“限制是通过克服、绕过或通过切换技术来解决的。”
我们将触手可及越来越强大的AI,为那个未来做好准备是值得的。将会有伟大、可怕的事情发生,还有需要弄清楚的事情。
话虽如此,我不同意他的映射。
在某些方面,GPT-4比一个聪明的高中生要聪明得多,就像查德一样。在其他重要的方面,GPT-4甚至不在与幼儿园儿童甚至婴儿相同的曲线上,它们无精打采,没有主动性,没有动力。继续扩展知识并不会神奇地扩展主动性。
图片来源:Not Boring
我们甚至不在主动性曲线上,这是一条不同的曲线。
听着,我使用知识和主动性这两个词有点松散,但不可否认的是虽然LLMs能做的不仅仅是复述知识,但即使你承认它们有推理能力,仍然感觉不到人性是从LLMs的扩展中涌现出来的。它们没有好奇心,也不会提出自己的问题。
七年前的凯文·凯利写道:“智能不是单一维度的,所以‘比人类更聪明’是一个无意义的概念。”这句话值得重复。
GPT-4在某个维度上是一个聪明的高中生,在其他维度上则是百分位底部的高中生。假设加强强维度也会加强其他维度是危险的,也没有一个A+的物理学生是通过成为A++的物理学生而成为明星四分卫的。
凯利甚至预见到了Leopold的图表,写道:大多数技术人员倾向于像尼克·博斯特罗姆在他的书《超级智能》中那样绘制智能——作为一个字面上的单维度、线性的振幅增加图。一端是小动物的低智能;另一端是,比如说,天才的高智能——几乎就好像智能是分贝中的音量水平……
这个模型的问题在于它是神话般的,就像进化的梯子。
这并不是说AGI和ASI的直觉测试版本永远不会发生——我相信它们在某个时间点的某条路径上会发生——只是感觉我们可能需要新的路径来达到那里,而那些路径可能更远。换句话说,你可以相信太阳能将继续变得更便宜、更丰富,而不必相信太阳能板本身会开始产生核聚变反应。这听起来可能像是我过于悲观的看法,但这是我写过的最乐观的东西之一。如果我是对的,我们将再次进入金发姑娘区域。
AI是越来越聪明和能干的助手
人工智能面前有两个极端的道路:一条路是我们一直在讨论的,我们很快就会得到AGI,然后不久之后得到ASI,人类很快将对更高级智能失去控制。至少,控制从AGI跳跃到ASI的模型的政府将会赢。
另一个极端是,这一切都是一个注定要破裂的泡沫,因为人们意识到AI实际上并不会变得更好。我们将不会创造AGI,英伟达会崩溃。
但还有第三条路,金发姑娘区域:我们在不消除人类需求,或孕育出有任何消除人类欲望的实体的情况下,获得了越来越聪明和能干的助手。
这就是同意Leopold的曲线但不同意他的映射的含义。这就是当你相信图表上的直线而不相信科幻小说时所得到的结果。在这种世界观中,人类有很大的角色要扮演:我们是提出问题的人,是将智能体以具有社会和经济价值的方式串联起来的人,是有目标和欲望的人,是选择让查德帮助我们解决问题的人。我们是充满活力和动力的人,是利用越来越能干的AI所提供的新能力的人。
我不是AI研究员,也不在实验室里,不知道Ilya看到了什么。但从外部来看,我没有看到任何让我相信有意料之外的事情会发生的东西。GPT-4并不比GPT-2更有野心,我的幼儿园孩子们仍然比两者都有更多的野心。
除此之外,我们是应对新事物的人。Francois在Dwarkesh对话中提出了一个与此相关的非常有趣的观点,他说:多年来,我一直在说两件事。我一直在说,如果你继续扩大深度学习,它将继续产生回报。同时我也一直在说,如果你继续扩大深度学习,这不会导致AGI。
我们可以自动化越来越多的事情,是的,这在经济上是有价值的。是的,潜在地有很多工作你可以这样自动化。那也仅仅是经济价值,你仍然不会有智能。
所以你可能会问,如果我们能产生所有这些经济价值,那又有什么关系呢?也许我们终究不需要智能。当你必须应对变化、新奇和不确定性时,你需要智能。
谁知道他是不是对的。我没有技术理由相信Francois而不是Leopold。但最后那一点非常有趣:“当你必须应对变化、新奇和不确定性时,你需要智能。”
在我的解释中,这是一个非常美丽的想法:即使我们能让AI解决当前时刻存在的所有问题,回答我们目前知道如何提出的所有难题,总会有新的问题要问,新的机会要拓展,新的领域要探索。这并不是说越来越强大的AI会是一个完美无瑕、无害的东西。工具越强大,坏人用它能做的伤害就越大。阻止一个拥有AI的坏人的唯一方法不是AI,而是一个拥有AI的好人。
所以我非常同意Leopold的观点,我们需要领先于其他国家,但我非常不同意我们需要国有化AI来这样做。这条道路带来了最大的风险。不仅仅是因为我们将把有史以来最强大的工具托付给政府,而且是因为通过将其从普通人手中夺走并假设AI将成为上帝的话,我们会让自己的能力萎缩。
因为如果Francois是对的,有一条道路我们假设LLMs将永远比我们更聪明,将以我们永远无法理解的方式解决所有真正困难的问题,并停止像我们物种依赖它那样推动自己。这可能在一段时间内有效,直到LLMs达到我们训练它们的信息所能做的极限,它们被困住了,我们不再能够提出新问题或制定新理论。
与其基于足够的知识将出现超级智能的信仰来神化LLMs,我们应该相信曲线。它们说LLMs正在变得难以置信地能干,而且速度非常快,但它们并没有说AI会突然自我指导。
我们可能能够穿针引线,建造看起来几乎像上帝但愿意做我们要求它做任何事情的东西。比如治愈癌症、建造工厂来建造数十亿个机器人、加速向曲速驱动器、奥尼尔圆柱体和戴森球体的进步。还有帮助那些因AI而失去工作的人找到新的工作和意义、对抗深度伪造以及让我们最聪明的人变得更聪明,这样我们就可以继续向新领域推进。解决旧问题以及AI无疑将帮助创造的新问题,但不断向上发展。
如果你可以雇佣一支不断变得更聪明、更有能力的助手大军,会怎样?完美的员工不就是一个比你聪明得多但出于某种原因不想抢走你工作的人吗?技术一直是人类的放大力量。左边的曲线展示的简单的赌注是赌它将继续是。它看起来更不像终结者,更像石油。
真正的新石油是AI本身
2006年,一位名叫Clive Humby的英国数据科学家创造了“数据是新石油”这个短语。从那时起,这个说法就被反复提及。但是,尽管数据和以往一样有价值,真正的新石油可能是AI本身。
我一直在阅读丹尼尔·耶尔金的普利策奖获奖书籍 《The Prize: The Epic Quest for Oil, Money, and Power》,这是有史以来关于石油历史的最佳书籍。
自从1859年德雷克在宾夕法尼亚州提图斯维尔的发现以来,石油赢得了战争,输掉了战争,创造了财富,引发了冲突,增加了世界GDP,并将以前无法想象的事情变得完全可能。它一直是无数政府行政部门的首要任务,也是我们当前生活水平的主要无生命贡献者。
但石油是一种商品。使石油如此有价值的是发现它、钻探它、提炼它、分发它并弄清楚如何使用它的人。我认为20世纪40年代到70年代的石油繁荣可能是即将到来的事情的最佳比较。私营公司正在投资数十亿美元进行发现。激烈的竞争导致价格下跌,模型商品化。存在国际竞争,对手(当时是美国和苏联,现在是美国和中国)之间,即使是友好公司之间也在竞相开发自己的资源。
正如Yacine在X上指出的,“这些公司将成为它们所在国家的国家资产。OpenAI董事会变得怪异并非偶然,加拿大有cohere,法国有mistral,日本有sakana。”
就像各国需要通过任何必要手段控制自己的石油供应以竞争和增长一样,各国也需要控制他们对前沿模型的访问。不一定是因为ASI将使其东道国无所不能,而是因为前沿模型将是一个国家增长、进步乃至安全的关键。
然后,石油为之前无生命的机器注入了活力。汽车、洗衣机、飞机和空调在注入黑金后轰鸣着活了过来。但汽车不太可能用更多或更好的精炼石油自己驾驶,就像它空着油箱一样。
现在,AI赋予了这些机器学习、行动和适应的能力,但汽车不太可能用更大或训练更好的模型自己计划公路旅行以供自己享受,就像它没有这些AI设施一样。
石油和AI都让我们在要求机器为我们做某事时从机器中获得更多。所以如果AI是新石油,我们可能会期待未来十年看起来如何?
当我在周末阅读《The Prize》时,我遇到了这段话,它让我感觉像是在看水晶球。我要分享整个部分,因为我认为它可能是一个不错的类比,这说明我们正在进入的时期就像战后石油繁荣对能源所做的那样,我们对智能所做的事情也类似:
爆炸——从1949年到1972年,全球能源消耗增长了三倍多。然而,与石油需求的增长相比,这一增长相形见绌,同期石油需求增长了五倍多。在任何地方,对石油的需求都在强劲增长。从1948年到1972年,美国的消耗量增长了三倍,从每天580万桶增加到1640万桶——除了与其他地方发生的情况相比外,这是前所未有的。在同一时期,西欧对石油的需求增长了十五倍,从每天97万桶增加到1410万桶。在日本,变化堪称壮观:消费量增长了137倍,从每天32000桶增加到440万桶。
是什么推动了全球石油使用的激增?首先和最重要的是快速而强烈的经济增长以及随之而来的收入增长。到1960年代末,所有工业国家的人们都在享受着二十年前他们似乎遥不可及的生活水平。人们有钱花,用它来买房子,买放在房子里的电器和供暖系统来获取温暖,买空调贪凉。家庭买了一辆又一辆的车。美国的机动车辆数量从1949年的4500万增加到1972年的1.19亿。在美国以外,增长更加巨大,从1890万辆增加到1.61亿辆。为了生产汽车和家用电器以及包装商品,直接和间接满足消费者的需求和愿望,工厂必须生产出越来越多的供应,而这些工厂越来越依赖石油。新的石化工业将石油和天然气转化为塑料和大量化学品,而在每一种应用中,塑料开始取代传统材料。在1967年的电影《毕业生》中,一个难忘的场景,一个年长的男人向一个对未来犹豫不决的年轻人透露了成功的真正秘诀:“塑料”。但到那时,这个秘密已经无处不在。
在1950年代和1960年代,石油价格下跌,变得非常便宜,这也极大地促进了消费的增长。许多政府鼓励使用它来推动经济增长和工业现代化,以及满足社会和环境目标。石油市场迅速增长还有一个最后的原因——每个石油出口国都希望出售更多的石油以获得更高的收入。使用各种激励和威胁的混合,这些国家中的许多继续向它们的特许经营商施压,要求生产更多,这反过来又给公司强大的动力,将石油积极推向它们能找到的任何新市场。
数字——石油产量、储备、消费——都指向一件事:越来越大的规模。在各个方面,石油工业变得庞大。没有基础设施,所有的生产和消费增长都无法实现。大量新的炼油厂被建造——规模越来越大,因为它们旨在服务于快速增长的市场,并实现规模经济。新技术使一些炼油商能够将高价值产品——汽油、柴油和喷气燃料以及取暖油——的产量从不到50%提高到90%。结果导致喷气式飞机、柴油机车和卡车以及家庭取暖油的大规模转换。油轮数量成倍增加,传统大小的油轮让位于被称为超级油轮的巨大的海上机器。加油站越来越复杂,出现在工业世界各个交叉口和公路沿线。越大越好——这是石油工业的主导主题。“越大越好”也迷住了石油消费者。由巨大的发动机驱动,装饰着镀铬和奢侈的尾鳍,美国汽车变得更长更宽,它们的油耗每加仑只有八英里。
世界无疑将发生巨大变化,但我就是傻到相信它会变得更好,就像人类发现、提炼和扩展石油时一样。AI是一种燃料。这不是基于深入的科学研究或对现有文献的回顾。我不在旧金山的派对上一边喝着益智药鸡尾酒听着人们在那儿随意分享价值数十亿美元的训练秘密,这是一种直觉,我想你可能也有这种感觉。AI是非常有用的软件,但它远非类似人类。你见过人类,你用过AI,它们对你来说感觉一样吗?
或者这样:如果OpenAI团队真的相信他们正处于创造上帝的边缘,他们会同意在每部新iPhone上搭载一个受限版本吗?这感觉就像是石油的常见模式的最后一环:发现、钻探、提炼、分发。
有趣的是。在我写完这部分后继续阅读时,更多的相似之处不断涌现,比如石油公司之间为了市场营销产品的竞争,拥有井口(抽油的地方)是战斗的一半,但拥有分销变得同样重要。石油公司正在销售一种商品奇迹。耶尔金写道:
“然后是关于汽油添加剂的大喧嚣。它们的全部目的是为一种商品——汽油——创造品牌识别,毕竟无论品牌名称如何,它或多或少都是一样的。在1950年代中期的一年半时间里,前14家营销商中有13家开始销售新的高级汽油,竞相在夸张的声明中超越彼此。”
这听起来熟悉吗?石油确实以奢侈的方式重塑了世界,它导致了郊区、汽车旅馆和商业航空旅行以及各种以约翰·D·洛克菲勒本人从未预测过的方式重塑了世界的事物。AI也会这样做。但重要的是要考虑领先的AI实验室可能正在竞相在夸张的声明中超越彼此,以便分发一种(超级惊人的)商品产品。
为什么思考AI很重要?
当我在听Leopold和Francois的对话时,我问自己的一件事是:为什么这很重要?谁会在乎我们如何精确定义AGI,或者LLMs是否是通往那里的道路?
我基本上避免了写关于AI的思考文章,因为我对这个问题的答案不确定,但随着我写这篇文章,我认为这对几个原因很重要:
首先,这些对话影响政府如何对待AI。
如果AI是上帝,或者至少是世界从未见过的超级武器,政府应该将其国有化,锁定它,并严格监管。
如果它是石油,他们应该尽一切努力鼓励和促进其发展,以确保他们的国家获得访问强大商品及其许多应用的创业创造力所带来的经济和安全利益。
第二,它们影响人们如何看待自己在未来世界中的地位。
如果AI是上帝,或者至少是无论从哪个方面都优于我们的超级智能,那么放弃并假设我们现在为改善自己所做的任何工作都是徒劳的,这是很容易的。这看起来是疯狂的,但人们确实因为气候变化而决定不生孩子;想象一下,当他们认为未来将由超级智能机器拥有时,他们会做出什么决定。
如果它是石油,人们应该开始思考他们可以用它来推动他们所做的事情的所有方式。石油并没有自发地催生郊区;像威廉·莱维特这样的人类意识到,汽油驱动的汽车意味着更多的人可以住在有院子和白色尖桩篱笆的房子里。我们所想象的美国梦要感谢石油,有了新石油,人类可以构想出新的美国梦。
石油带来了挑战。人们失去了工作,国家发动了战争。石油颠覆了旧的生活方式,用新的生活方式取代了它。AI可能引发同样的事情,但挑战是可以克服的,只要人们相信情况并非没有希望。认识到AI是石油意味着摒弃夸张的说法,以便人们可以应对它将带来的非常真实的挑战。
人类创造力是最大的资源。我们发现了石油并提炼了它,我们创造了AI。
尽管那些竞争分发他们品牌的AI的人会告诉你AGI要来了,但我没有看到任何证据表明AI会在不久的将来匹配,更不用说取代,那种创造性的火花。
这并不是说AI没有在以惊人的速度进步,它有。昨天,DeepSeek在编码排行榜上获得了第一名,Runway推出了其令人惊叹的第三代Alpha视频生成器,Ryan Greenblatt使用LLMs在ARC-AGI上取得了前述进展。
只是说那是伟大的。进步意味着成长,我们将需要一排又一排的芯片和一个又一个千兆瓦的新能源容量。
所以,让那些能够解决物理学问题的模型,那些能够在他们从未见过的问题上进行推理的模型,那些能够帮助治愈困扰使用旧工具的科学家的疾病的模型都来吧,也让那些当我要求它时能够比我更好地提出整个论点的模型来吧。
让人类继续推动新知识的边界,推动我们雄心的前沿,并设定与我们越来越能干的工具相匹配的更大目标。
我敢打赌,从2071年回顾这个时期,人们会像1971年发现石油时一样回顾。这是一个容易打赌的赌注:如果我错了,如果AGI构建了杀死我们所有人的ASI,你不会在这里幸灾乐祸,不过最好找到一个足够聪明的AI来打那个赌。
文章来自于“Z Potentials”,作者“Qianying Liu”。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则