对话清华教授陈文光:如果大模型不再拼“大”?

大模型是否趋冷、李飞飞的新项目和AI的阳光普照

如果当 大模型不再追求“大” ,会发生什么?

这是不久前丰叔和 陈文光教授 深度对话的话题之一。陈文光是 清华大学 计算机科学与技术系教授,他也在 蚂蚁集团 兼任副总裁和 蚂蚁技术研究院 院长。他长期研究 高性能计算编程模型 和 编译系统 ,近几年在以 图计算 系统为代表的 新一代大数据处理系统 方面也取得了进展,在学术界和产业界都有较深的积累。

他们聊天的一个背景是:过去两年,AI尤其是 大模型 似乎成了全创投行业的希望。围绕大模型的讨论,似乎都与“ 大 ”有关,说得夸张点,只与“大”有关。伴随着 模型的变大 ,我们看到了 算力之争 、 英伟达飞升的股价 ,我们也对 AGI (Artificial General Intelligence, 通用人工智能)产生了无尽的想象。

另一个他们聊天的语境是,最近 国际资本市场 上, 大模型相关头部企业的股价出现了波动 ,围绕大模型的讨论也出现了 不同的声音 。

那么,模型的 “大”是必须 的吗?AI向前发展, 只有拼模型规模“大” 这一条路吗?

围绕这个核心话题,丰叔和陈文光教授一起探讨了:

  • 大语言模型是如何发展起来的?

  • 回到 9.3和9.11谁大 这个问题,我们从 语言 中究竟能学到多少 智能 ?

  • 接下来,大模型还能在什么方向上取得显著突破?

  • 如果我们不再只追求模型的“大” , 英伟达 等公司的 增长会遇到挑战 么?

  • AI应用有什么机会?今天的大模型能力,真的能支持做 情感陪伴 吗?

  • 大模型的经济账怎么算?在什么类型的应用上,大模型既能够 超越使用者的预期 ,又使得使用者愿意 为之付费 ,且他们 付的钱能覆盖 如此大规模的资源消耗的 成本 ?

  • 在处理多模态数据时,当前的大模型面临哪些 技术难题 ,我们与机器的 交互方式 会被进一步改变吗?

  • 大模型的风正在吹向具身智能 。基于具身智能机器人的 基座大模型 是否能实现,换句话说, 李飞飞教授 的创业方向靠谱吗?

希望能带来不一样的角度和思考。

01 大语言模型的两条演进脉络

李丰:今天我们请到陈老师来一起探讨当前大模型的发展态势,以及近期的市场波动背后的深层次原因。当然今天的讨论,主要是代表我和陈老师个人,陈老师是计算机行业比较资深、专业的从业者,我更多的是对AI方向比较感兴趣的外行。我们先请陈老师简单自我介绍一下。

陈文光:我主要做 高性能计算 ,即大规模并行计算的研究。在大模型领域,我参与过 训练几个大模型 ,其中包括一个有 上百万亿参数的模型 叫“ 八卦炉 ”。尽管如此,我并不是专门研究 NLP(自然语言处理)或算法的。如果说李丰是从外行的角度来看问题,我可能更像是半个内行和半个外行的结合。

李丰:开始讨论之前,我们回顾一下大模型的演进。大模型本质上是 AI 的一种表现形式和技术进步 。你如何看待这一波由大模型引发的投资、创业浪潮?这一波热潮是否有明确的 发展脉络 ?

陈文光:虽然都是基于 Transformer 的预训练语言模型,2018年 BERT 发布时,和 GPT 的差别不是很大,但在当时并没有引起太大的反响。

2022 年 11月,随着 GPT-3.5 的推出,尤其是 ChatGPT 的发布,大家都感受到技术上的飞跃——ChatGPT中 对话功能 的上线,让它得到了广泛的关注。

GPT-4的发布是另一个里程碑。GPT-4解决了GPT-3.5的许多问题,特别是在 事实对齐 方面,GPT-4的表现很出色,其能力达到了新高度。

接下来,今年春节期间的 Sora 又推动了 多模态技术 的发展。在GPT可以处理文字、图片的基础上, Sora实现了较长时间的视频的生成 ,不过后来它的发展没有达到人们的预期。Sora目前为止还没有开放服务,反而是国内的一些项目已提供了实际的应用。

总结一下,我觉得大致的脉络是, 大语言模型 从 自然语言的对话 ,发展到 高准确度 和 多模态的GPT4 ,再到 长时间的多模态视频的生成 并做到了一定的 一致性 。

另一条发展脉络是 开源项目 。以 Meta (Facebook 母公司)的 LLaMA 为例,最新的LLaMA 3使用了超过10T以上的token和更大的模型规模,有很好的效果。

国内的模型发展也很迅速,从最近的表现来看,像通义千问、智谱AI的 GLM 等模型不仅在 机器评测 的benchmark上表现出色,在 LMSYS组织的由 人类评测 的Chatbot Arena上也达到了很好的性能,接近了GPT-4的水平。这些 第一梯队的国产模型 ,整体差距可能很小,很难说谁比谁好。

李丰:从语言角度看,基于中文的大语言模型和基于英文来做的大语言模型相比,在语料、结果、计算、技术上有什么差异或者说优势吗?这些差异是否足以形成长久的优势?

陈文光:可能不能算是一个长久的优势,但是 高质量的中文语料很稀缺 ,公开的就更少。我们看到,像LLaMA这样的开源模型,在中文处理能力上不如国内的一些模型。原因可能不在于训练方法或技术结构,而更多在于 数据 。国内的公司投入了更多精力来收集和处理高质量中文语料,因此目前达到了更好的效果。

02 从大数据到图像识别,再到 ChatGPT:AI 热潮的风起云涌

李丰:从投资的角度来看,可能有一个更长的轨迹。

中美都经历了一波与 大数据 相关的创业热潮,美国在移动互联网时代就起步,中国起步稍晚一些,大概从2009或2010年开始。经过三到五年的发展,大家逐渐建立起了较好的数据基础设施,数据处理、存储与调用的能力大幅提升。

接下来是 AI的第一波热潮 ,或许可以称之为 计算机视觉 (Computer Vision,简称 CV) 的热潮。这一波里的代表性公司是“ 亚洲四小龙 ”。CV 主要处理的是图像特征,尤其擅长人脸的特征提取。

对于当下这一波的大模型技术而言,Transformer的提出是一个重要节点。作为一种 强大的特征提取器 , Transformer 这个技术的演进是怎么发生的?

陈文光: Transformer 是2017年那篇名为“ Attention is All You Need ”的论文提出的。最初,Transformer主要用于 翻译 任务,而不是在对话这样的应用场景,因此它的架构是以 encoder-decoder(编码-解码) 的模式为主。

简单点说,Transformer能够同时考虑两个序列之间的所有关联,通过不断训练权重,最终确定这些序列之间的关系哪个更紧密。以往的 NLP 模型,在处理长序列时容易丢失状态,而 Transformer 通过 摊平整个序列 ,哪怕是前后相隔很远的token,它也能够 考虑到它们之间的关系 。

这个特性使得 Transformer特别适合并行处理 。通过并行处理,GPU的计算效率得以大幅提高,在多机环境下也能很好地并行执行任务。

李丰:接下来还有另一个节点,就是 Diffusion model 的提出。我个人的理解是,Diffusion 在传统的收敛性抽象过程当中 ,可以在 合理的方向 上做一点 泛化和延伸 。你能不能介绍一下Diffusion在大模型的发展脉络中起到的作用,以及它是什么时候开始产生影响的?

陈文光: Diffusion 和 语言模型 是两条平行发展的技术线。以前,生成内容的技术主要是 GAN( Generative Adversarial Network,生成对抗网络)。

现在的主流观点认为, Diffusion是GAN之后的模型 ,在丰富度上更好,因此有更多的研究工作集中在Diffusion上。不过GAN也有它的优势,计算速度更快,成本更低,在同样精度和分辨率下,它的计算代价会更低,图像的真实感更胜一筹。

03 大模型,就要越拼越“大”吗?

李丰:最近我观察到两个现象,一个是 AI 领域的热潮主要集中在 大模型 上。在过去两年,模型主要是在 拼“大” ,参数越做越多,文本输入也越来越长。这带来了两个后果:

一是 资源消耗增加 ,这导致了英伟达等公司推动的 算力竞争 ,因为你需要更多的计算资源来支撑更大的模型。

二是模型的“大”也带来了 超越预期的生成效果 ,比如生成的文本变得更加完整、自然,甚至更符合逻辑。

这两个方面给了人们在投资和创业上的想象空间:一方面与 算力 相关,另一方面 AGI 相关。你怎么看待这种“大”的趋势?这种拼“大”的过程是否还会持续下去?

陈文光:我可以从超级计算机的角度来聊这个话题。超算的发展一直遵循着一个规律, 峰值性能每 10 年增长 1000 倍 。其中,大约有 100 倍的增长来自算法优化和单芯片扩展,而另外 10 倍的增长则依赖于规模的扩大。因此,超算的成本越来越高,一台机器的价格从几千万到几个亿,再到几十亿。

但是当成本达到 几十亿后 ,再进一步 增长就变得很困难 了。因为假设你要投入几百亿去造一台超级计算机,自然会有人质疑 这几百亿究竟能带来什么实际效益 。

在 AI 集群的规模扩展上,其实也面临类似的问题。首先是 投入成本 实在太高。其次在 工程 上也面临许多挑战,比如供电、散热。

以万卡集群为例,它的 平均无故障时间 (MTBF)只能维持几个小时。如果是 10万卡集群 ,平均无故障时间可能会缩短到 10分钟级别 ——因为你还需要采用各种 容错技术 ,如果要做好容错,可能会花掉5分钟时间,这意味着你实际可用的训练时间就只有一半。

再进一步扩大规模时,各种工程和成本的限制会让训练效率大幅下降。此外, 10万卡的通信本身 也是一个很大的挑战。

因此,在 性能和成本收益 上,再进一步扩大机器规模的边际效益可能并没有那么明显。

另一个是 数据 问题。目前主流的优秀模型大概使用10T token进行训练,在这个规模下,需要用到几万卡来进行训练。但如果我们没有足够多的数据,那么也不需要更大的机器来进行计算。

所以,我的看法是, 万卡的规模是肯定没问题的 , 十万卡是可能的 ,但是从成本和收益的角度来看, 百万卡不具备太高的实际收益 。

李丰:如果我们不再一味追求“大”,很多附加的问题可能会随之而来。比如,如果规模不再扩大,GPT 是否还能如大家所期望,继续超出预期?

陈文光:我不太好做具体的预测。毕竟ChatGPT对我们所有人来说都是一个大惊喜。OpenAI用八年憋了个大招,现在,虽然GPT-5迟迟没有发布,但我们不在内部,可能不确定具体原因是什么,到底是模型没有达到革命性的预期,还是说现在 GPT-4o 市场反应不错,大招可以后续再发布。

至于还有 哪些事是过去我们不能干,或者干得不好 ,然后 现在大模型一下就能干得很好的 ?这个暂时我很难去想象,也说不好这是我们人想象力的局限,还是说这是这个领域的现实。

04 9.3和9.11谁大?从语言中究竟能学到多少智能?

李丰:这一轮大模型都是从 自然语言 起步的,即从文本学习和处理中发展出来的。这引发了一个第一性原理的问题: 语言本身到底代表了多少智能 ?语言更多是一种表达方式,还是思考方式?一个从小没有接受过语言训练的人,他的大脑是否仍然具备复杂的抽象思考能力?

我看过不同的讨论,我个人比较认同的观点是, 语言本身主要是一种表达形式 。它可以用来进行 抽象思考 和 组织归纳 ,但它 不一定是我们大脑在思考问题时必须依赖的工具 。那么,我们从语言中究竟能学到多少智能?

陈文光:这个问题可能涉及到几个层面。

首先,如果我们指的是 狭义的语言 ,那它肯定 不能涵盖所有的知识 。比如说,一个 化学方程式 要用自然语言来表达就很困难,但如果我们将“语言”这个概念 泛化一下 ,不仅包括 自然语言 ,还包括 图片类 的内容,甚至包括某些 过程类的表达 ,比如编程。这就回到了 AI 研究中的一个老话题—— 知识表示 。在知识表示的领域中,有各种各样的表示方式。

从一个角度来看,现在的大模型其实是通过 神经元网络 的方式,将自然语言中的某些 知识进行表示 ,然后我们可以 检索 这些知识,或者用它来 完成一些任务 。

所以,回到你的问题,我理解你想表达的是自然语言的学习可能存在局限性,站在智能的高度上,有些内容确实无法清楚地通过语言来表达,或通过阅读文档来学习。

我最近也在思考一个问题:能否 让大语言模型读完一本物理教材,然后解答后面的习题 ?这个现在还是不能的。

李丰:这就类似那个9.3和9.11谁大。

陈文光:对。这个现在是不能的, 中间有一个gap ,要解决这个gap,需要用其他方式来表达物理教材中的一些知识,而不仅仅是通过自然语言。不过,目前这个问题还在讨论和探索的阶段。

李丰:这轮的大模型热潮核心是语言大模型,其基础是将过去40年积累的文本的数据化,输入计算机并进行计算。假设我们能够学习和计算所有这些文本内容,我们能学到多少智能?

陈文光:这个问题涉及到 智能的定义 。当前大模型能够做的事情是,从 理解 的角度看,输入一篇文章后,它可以帮助总结和回答问题;从 生成 的角度看,它可以根据一些提示来生成文档或主题。

李丰:是的,从知识层面看,因为大模型是从文本数据中学习的,它已经涉及到了一定程度上多样且复杂、不同质量的数据。所以, 文本对文本已经达到了一定的水平 。但在文本对文本之外,我有一个疑问: character AI 这样的情感陪伴应用,能否真的实现 从文本到情感 , 再到共情和高情商的反馈 ?又或者说,今天大模型的能力,真的能做情感陪伴吗?

陈文光:在这个问题上,我可能比你 乐观 一些。首先,不谈情商,现在大模型完全可以 模拟 一个人说话的方式和风格,来与人对话。 用某种情感模式来说话 ,愤怒或愉快,这也是可以做到的。真正有挑战的,是 理解对方的状态,然后共情,接着通过某种路径去影响对方的情绪 ,比如让对方心情变好。以我目前对 AI 的理解,只要有足够多的例子,AI 是可以学到的。

打个比方,先把隐私话题放一边,假设我们能获取到心理医生与患者的对话数据,并且数据量达到一定程度, AI学到这些情感路径 并不是完全不可能的。

李丰:从表达到情绪,再到共情,这个过程存在 多层抽象 。也许从文字本身来抽象情绪相对容易,但是, 理解情绪背后真正的感受 就要复杂得多?

陈文光:这实际上涉及到整个AI领域内一个重要的争论:是 端到端学习 ,还是 功能分解 ?事实上,我们尚未完全搞清楚语言模型的推理机制。有时,它并不是逐步推理过去,而是直接跳到了结果,但它依然能够在逻辑链条上做出合理的推理。

以CNN(Convolutional Neural Network,卷积神经网络) 识别人脸 为例,我们并不一定需要明确地告诉计算机,人脸上有多少个特征点,因为神经网络有端到端学习的特性,只要有足够多的数据集,模型就能够学习并整合这些信息,尽管我们不一定知道它内部是如何处理的,但它确实能够学会。

李丰:换句话说,如果我一直表达某种情感,模型就能够学习这种模式,并在类似情境下做出相应的符合预期反应。AI不是即兴发挥的,它还是基于学习过的数据来做出反应。

陈文光:模型的神奇之处就在于此。

05 大模型的经济账怎么算,接下来的想象空间在哪里?

李丰:作为投资人,我从外部视角来看,如果大模型不再继续变“大”,英伟达等公司的股价可能会有点挑战。因为大家如果不再激烈地进行算力竞争,大模型的想象空间多少会受限。

此外, 如果大模型没有持续的技术突破 ,人们就会回过头来 算经济账 ——大模型 在什么类型的应用 上,既能够 超越使用者的预期 ,又使得使用者愿意为之 付费 ,且他们 付的钱能覆盖 如此大规模的资源消耗的 成本 。

关于模型的“大”或者说“大”作为模型竞争的方法之一,我有两个疑问。

第一个是,现有的大模型如果不再进步,它能否提供 让用户愿意付费且能覆盖成本的使用体验 ?

另一个是,通过不断扩大模型规模,我们是否能够最终 实现AGI或生成式人工智能 。这是大家对“大”的一种想象。

陈文光:这里面有两个问题。

首先是“大”能够在多大程度上提高模型性能?在纯粹的语言处理方面,这取决于是否能通过不同的方法 获取到更多的大规模语料 。现有的语料已经达到了一定水平,合成语料在自然语言预训练中使用得还不多。就像孩子学习语言,当他达到了相当于 15 岁的水平,再费劲提升到 16 岁,效果也不会太显著。

另一块值得关注的是 多模态数据 。多模态数据的引入,特别是视频、图片、图像等,可能会成为下一步提升模型能力的关键。视频数据量非常大,甚至在某种程度上超越了自然语言的范围。自然语言和视觉的结合,未来还可能引入触觉,这将进一步推动多模态的发展,也会对模型能力提出更高的要求。

多模态能力可以通过更多的数据和更大规模的模型来提升,但这需要 机器规模与数据规模相匹配 。如果数据规模不能达到10倍的量级,机器规模也不需要扩大10倍。从这个角度看,我认为模型规模还有可能进一步扩展,但很难想象会像过去那样 10 倍地增长。

李丰:我想插一句,行业内经常提到的“ 规模定律 ”(Scaling Law)具体指什么,想请你给大家科普一下。

陈文光:Scaling Law大致的意思是,当我们使用更大参数规模的模型时,比如达到几千亿参数,那这个模型所需的数据量可能会达到几万亿的token,而对应的计算需求可能需要几千甚至上万块GPU卡来支持。

在这个过程中, 参数规模、数据量和计算能力是匹配的 。大家希望通过扩大模型规模来获得更好的效果,但这也需要更多的数据和更强的计算能力。

李丰:它或许不是一个简单的线性推导的过程?

陈文光:有些研究指出,给一定的计算量或数据规模,我们可以选择一个 最合适的模型构建方式 ,这样可以在有限的时间内达到预期的训练效果。这些研究通常是在小模型上进行验证,然后推广到大模型,主要是帮助优化训练过程。

比如,通过预测Loss(Loss Function,损失函数)的下降曲线,我们可以判断训练是否出现了问题,让整个训练过程变得更加可控。

以我目前参与训练几个模型的有限经验来看,确实模型规模越大,Loss的下降速度明显越快。不过从200B到500B再到1万亿,Loss到底下降多快,会loss多少,这很大程度上还是 实验科学 。即便它 不一定是线性的 ,但非线性函数也可以去做一些拟合。

李丰:这个合理。我们回到规模是否能带来更大的智能这个话题。

陈文光:我认为还有一定的增长空间,但 不会像过去那么迅猛 了。一方面,大家可能不会愿意投入那么多资源。另一方面,从 性价比 的角度来看,规模问题也没有那么重要。尽管摩尔定律的进展速度有所放缓,但它仍然没有完全失效。我们还可以通过其他技术手段,来降低成本。

所以,如果要考虑短期内比如三五年的投资回报,这些问题很关键。但从长期科研的角度来看,这个问题可能没有那么紧迫。从长远来看,只要能够实现智能,未来的技术突破将使得计算成本变得更加可控。或许有一天,我们会有便携式的核聚变发动机,那耗电问题就不是个事儿了。这些新技术一开始的成本肯定很高,但往往随着时间的推移,成本会逐渐下降,变得经济上可行和可盈利。

李丰:从投资的角度来看,如果大家不再拼“大”了,就会受到性价比的约束,模型可能会开始往回收敛, 转向去驱动应用的落地 。换句话说,只有当焦点从“大”上移开时,应用落地才会真正开始加速。

陈文光:目前这方面已经有一些趋势。像百度、Google、微软等公司都在做一些较小规模的模型。这些小模型在特定领域并 不需要百科全书式的能力 ,而是结合了 相对通用的能力和领域特定的能力 。甚至业界也有人开始反Scaling law,尽管这可能不是共识,但在某些应用场景中,使用更小的模型来获得相当于大模型的能力,在性价比上,确实有优势。

李丰:如果模型规模不再继续扩大,大家可能会回过头想,单靠扩大模型规模是否真的能通向通用人工智能?换句话说,大家对大模型的想象力是否会因此遇到天花板?

陈文光:首先,认为“大”可以通向通用人工智能,这本身就是一个没有太多依据的 猜想 。很多人可能觉得大模型能力更强,但是否能达到通用人工智能,这一点并没有达成广泛共识。

其次,大模型的“大”这个发展方向可能会放缓,但不一定会终止。 “大”的趋势变缓 ,也并不意味着算力的需求就一定会下降,因为模型的 训练和推理 都需要用到算力,即便模型训练对算力的需求少了,推理对算力的需求必然会大幅提升。

李丰:同意。这也是我们为什么投了推理芯片方向的公司。

06 大模型的逻辑与难题:从文本到多模态输入

李丰:每个人都有自己的一套语言模型,我从观察者的角度来看,自然语言表达具有以下几个特征:

第一, 理论上语言是可以穷尽的 ,但由于存在几乎 无穷多的搭配方法 ,它实际上是不可穷尽的。比如我们常用的词汇量大概是5到6万个词,这些词如何组织和连接,理论上是可以穷尽的,但实际上很难做到。

陈文光:这就是个经典的 组合爆炸 的问题。它的复杂度是指数级的,计算机再有能力,也很难穷尽。

李丰:是的,这是第一句话。其次, 语言有粗略的规则约束 ,不管我们是自我表达还是听别人表达,道理上我们都有个吸收理解信息与评价的大模型,否则,我们就无法理解或评价别人的说话质量、作文水平等。

当然,每个人的 表达能力有所不同 ,但大多数情况下可以 通过多看、多说、多学、多练等方式得到提升 。换句话说,我们都在表达同一个内容,但在遣词造句的过程中,如果我的语言大模型更好一点,我就会比别人表达能力更强。大概这就是语言本身的特征。

此外,语言和思考之间也有差距,表达越具体,可能丢失的信息就越多。

如果我们从大语言模型的角度来看这些特征,当计算机学到足够多的字及其组合形式后,并结合一些客观的评价数据输入,它就能够一定程度上模拟我们大脑中的语言模型。

这个的前提是,文本是一维的、是线性的,一个字一个词接着往下排。基于语言模型的生成模型实际上处理了足够多的词汇或文本之间的关系,并在某些维度上约束了这些关系,从而输出,生成新的文本。

陈文光:大面上我理解应该是这样。

李丰:就像当年 AlphaGo下围棋 的迭代一样,理论上它也是一个组合爆炸的问题。AlphaGo最初也是学习人类棋谱,后来它能够自己寻找最佳的下棋路径后,人类顶级棋手就再也无法战胜它了。

我提这个例子是因为,从投资人的角度,我们在思考 什么会适用于大语言模型的逻辑 。比如说 编程 与大语言模型就有相似性。

陈文光: 编程语言 有一个比自然语言更好的特点,就是 可以编译并执行 ,如果编译不通过或者执行失败,你就知道代码不对。因此,编程有一个 更强的自我反馈机制 ,它甚至不一定需要人来参与,可以通过这种机制实现更好的对齐和优化。

李丰:那接下来我们讨论多模态数据相关的问题。今天的大模型已经发展到可以处理一维文本和字词关系的水平了,我理解“ 文生图 ”的过程本质上还是在表达一个句子,只不过是 将句子中的内容转化为图像中的某个元素 。因此,如果有类似Copilot的辅助工具,文生图是可行的。

但如果 图片作为输入 ,用来解析其中的元素关系或者场景,由于图片至少是二维信息,甚至可能包含更多复杂的视觉元素,直觉上看,从前面提到的逻辑延展到这一步,似乎是难以实现的。

陈文光:因为直接处理像素的计算量太大,现在主流的多模态大模型处理图片的方式是,像 DALL-E 或 Sora 模型那样,将图片 切割成一个个“小片” ,称之为“patch”,然后将它们作为一维序列输入到模型中进行处理。

在 自然语言处理 中,我们 通过分词来形成token ;在 图片处理 中,我们通过 将图片切成patch来生成token 。当然,图片的上下部分是有联系的,当我们把图片切成一维序列后,似乎丢失了其中的一些二维信息,但其实并没有。因为自然语言表面上虽然是一维的,但通过Transformer模型,它是一个 极高维的关系矩阵 。

李丰:我的意思是,不管中文还是英文,字和词可以独立存在,但就像你说的图片上下部分可能是有联系的。

陈文光:我理解你是指假设图片里有人的眼睛或鼻子,然后切图的时候,其中一个patch只包含了眼睛或鼻子的一部分。其实切完之后,这个embedding本身它是有内容的,它会试图去理解说这个跟眼睛比较像,可能是人的眼睛的一部分。

李丰:如果纯粹从抽象思考的角度来看,我们人类处理视觉输入信息的过程与处理语言信息输入的抽象过程是否一样?

陈文光:可能不一样。视觉处理的过程应该不会像语言处理那样是线性的序列。

机器学习领域有一个观点, AI只需要达到大脑的功能,不一定要复制大脑的机制 。也许我们可以找到不同于人脑的另一条路径,在计算上更加可行,并且能够达到类似的效果。所以,AI的工作机制未必像人脑,跟它不能达到一定的智能,这两者不能简单划等号。

李丰:同意。我们看过一些类脑计算项目,但目前它们的效率还不够高。这背后的主要瓶颈是, 我们对大脑的了解太少 ,特别是对大脑的复杂认知过程和机理的理解。

陈文光:我们对人类大脑的 观察手段有限 ,不能进行有创实验,语言机制的研究就很难深入。视觉研究其实相对好一些,因为可以在低等动物上进行实验,比如果蝇或小鼠。但涉及到人类的语言机制时,实验限制更多,其中实验伦理问题就是个很大的槛。

目前的逻辑是, AI 将继续沿着自己的一条发展路径前进,而 类脑计算 作为一种脑启发的智能,是另一条可供选择的路径。人工神经网络的研究者众多,方法也多样化,总会有新的突破。类脑计算如果能够取得一些好的结果,也会被广泛应用。

07 大模型的逻辑与难题:从图片到视频

李丰:回到我们之前讨论的主题,文生图和图片输入是两件事。如果我们再往上扩展一层,加上时间维度,形成三维数据,就变成了 视频输入 ,这对现有模型来说是否会过于复杂?

陈文光:不一定。比如Sora的白皮书虽然内容不多,但基本上可以看出它是通过 训练一系列图片 来进行的, 通过视觉模型对这些图片进行描述 ,这样就形成了一个 序列 。

你提到的关键问题是 如何理解这些序列之间的关系 ,以及 在生成内容时如何保持一致性 。在视觉领域的研究社区中,这两个一直是热门话题。

稍微提一下蚂蚁技术研究院的工作。虽然蚂蚁没有做直接生成很长的视频的模型,但它做了一项 可编辑多媒体的研究 :你给我一个图片,并在上面标注一个区域说,在这里画一个围巾,然后系统会很逼真地在那个区域生成一个围巾。

还有一项工作是对视频进行 风格化编辑 ,比如将一段视频中的人物的头发变成白色。这就涉及到时间上的一致性问题,首先在图片上进行变换,然后在时间轴上做一些约束,最后生成整个视频。

当然那这些研究还都不完美,但大家确实在不断探索。我觉得不存在那种跨不过去的技术约束或者鸿沟。

李丰:大语言模型本质上是通过分析词和词之间的绝对关系来运作的。那么,今天用来训练和输入的这些图片或者视频数据,是否大部分都没有经过标注?

陈文光:大部分数据确实是 没有标注 的,但也有些数据是有标注的,比如 Meta 开源的一些标注数据集。目前大家普遍采用的方法是,是用 Meta的 Segment Anything ,它可以 自动分割 图片中的元素,并识别出这些元素。识别完成后,它可以生成一个非常复杂的长描述 (long caption )。有了这些描述,再结合图片进行多模态模型的训练,就可以获取更多数据。

李丰:这个方法它可以识别出名词或物体,但动词呢?

陈文光:目前大家的研究还是主要集中在 位置关系 上,比如图片中有哪些东西,它们之间的相对位置。如果涉及到动作或动词,那可能就需要通过视频来进行对比,观察图片之间的变化来推断出动作。

08 具身智能领域的基座模型:李飞飞的创业方向靠谱吗?

李丰:刚才我们讲了整个大模型的历史演变,前世和今生。当下,大模型带火了另一个赛道,就是 具身智能机器人 ,或者说 人形机器人 。这个方向我们投了不少公司。

前段时间,硅谷有一家新的创业公司受到关注,它的创办人是 李飞飞 。李飞飞提到,大模型在物理世界面临很多挑战,是因为它本来就不是为物理世界设计的。她的公司致力于 解决物理世界中的大模型问题 ,特别是 用于具身智能机器人的基座模型 。

我很赞同她的观点,但现在面临的挑战是:首先,要为未来的智能机器人开发新的模型,这些模型需要考虑相互作用、形变等 物理问题 。然而,短期内,似乎无法通过纯粹的物理计算来解决这些问题。第二,机器人领域的数据少, 标注的数据更少 ,那么在构建基座模型时,这个挑战看起来比处理视频数据更大。

我的问题是,未来两三年内,一个有效的具身智能机器人基座模型真的能被开发出来吗?

陈文光:我觉得这取决于它要实现什么功能。如果是 视觉和场景理解 ,基本上是可行的。像是 自动驾驶 ,就已经基本解决了这两个问题。

同样的,在机器人领域, 无论是在室内还是室外 ,观测的内容虽然不太一样,但本质上 没有根本的区别 ——看到某个物体,识别它的深度,知道它是什么东西,然后理解它的位置关系。这些在目前的计算机视觉技术中已经是很合理的扩展。

李丰:其实 自动驾驶行业积累的大量的数据、算法和经验 ,这些都可以 转移到机器人领域 。但与操作型的机器人相比,自动驾驶有一个显著的区别:

在 自动驾驶 中,任何情况下都必须 避免碰撞 ,这是一切的前提。但对 操作型机器人 而言,所有的操作都是为了 物理接触 ,这是完全不同的逻辑。

陈文光:是的,我刚才提到的更多是 环境理解 和 移动能力 。这些技术虽然还不成熟,但没有根本性的技术挑战。操作就是另一个故事了,它的难点在于操作对象太多。

我们可以把操作对象分为 刚性物体 和 非刚性物体 ,操作又可以分为 精确操作 和 非精确操作 。

目前,第一步是攻克刚性物体的非精确操作问题。目前主流的方法是 模仿学习 ,比如先让人操作几千次,然后机器人通过学习来模仿。因为是刚性物体,当前的操作还不涉及太多触觉的问题,主要还是关注精度。

当然,未来肯定是朝着 精确操作 和 非刚性物体 方向发展,比如给人刮胡子、翻身、叠衣服,这些都是非刚性物体的操作,对准确性的要求更高。

李丰:所以我有点不确定——不是说质疑李飞飞的观点,而是拿不准这个方向,因为操作领域的挑战很大。可能在一些 专用场景 中会出现一些 专用的、可以泛化的模型 ,但要实现全面的面向具身智能的基座模型还有很长的路要走。

陈文光:大家对基座模型的定义可能不完全一样。因为操作对象太多、操作方式太复杂。目前的倾向是针对具体任务,比如搬箱子,就专门训练搬箱子的模型。大家还很少讨论一个通用的操作基座模型,当前还没有成熟的方法论可以解决这个问题。

李丰:我也觉得是这样。短期内可能会有一些针对特定任务的、专用的小模型。

陈文光:技术的发展通常是 从点状开始 的,然后 逐步扩展 。很难说未来不会出现一个通用的操作基座模型,只不过目前我们还不清楚如何着手构建。未来可能会逐步合并一些相似的操作类型,最终扩展到更多的场景。比如搬运和抓取物体的需求不同,但我们可能会找到整合这些操作的方法。

李丰:现在看来,机器人 下肢的运动能力可以通用化 ,关于下肢或者运动——我们说的是那种跨平面的运动,比如上下台阶、上下楼梯,或是爬坑、过坎。

这种类型的运动,你觉得会出现单独的基座模型吗?

陈文光:有可能,因为这种 运动 本质上是把 视觉、触觉和运动控制结合 在一起。

另外,现有的 大语言模型对于任务理解和规划 也有一定的作用。这也是为什么大语言模型出现后,具身智能变得火热的原因之一。

过去,我们很难直接告诉机器人该做什么,但现在通过 自然语言 , 直接与机器人沟通 变得更加容易了,这种技术的突破非常关键。

李丰:而且机器人领域可以复用很多自动驾驶领域的技术和经验。自动驾驶作为之前的 AI 热潮之一,经历了大约 10 年的发展,叠加算法的变化,这对机器人领域的发展也是一种推动。

你认为在大模型这个话题中,还有什么值得大家关注和补充的内容吗?因为大模型的发展似乎到了一个阶段性的节点,接下来可能会更多转向应用和机器人领域。

陈文光: GPT-5 到底会长什么样,我还是有一点点小小的期待,也许等 GPT-5出来了,咱们今天聊的前面半截可能基本就作废了。

李丰:那我可能比你稍微保守点。目前大模型在事实性的、文字性的处理上表现出的智能水平还是可以的,接下来要解决的就是之前提到的9.11和9.3的问题。

陈文光:现有的大模型基本上可以 胜任办公室文员 的工作,基本的读、写它都能干,但当涉及到 更复杂的交互 ,比如让它帮助规划旅游或订票,目前效果还 不尽如人意 。此外,当我们把模型细化到某个专业领域时,通常需要再训练专业数据,从而形成一个更 专业的模型 ,但这些专业模型的深度能达到什么水平,还是未知数。

以科学领域为例,像 AlphaFold 这样的模型在科学发现上已经持续改进,并开始被应用于实际的科学研究中。有人甚至在讨论,大模型是否能够提出假设,而不只是总结现有的信息。如果它能 结合计算和实验方法进行闭环验证 ,或许可以想象成一个自动化的 科学工厂 。当然,这就需要那个假设有较高的成功率,否则就会显得不太靠谱。

至于GPT5是否能帮我们在这些相对专业的领域进行更好的探索,现在还不知道,但想象空间是有的。

李丰:呼应一下你提到的这个点。历史上也发生过类似的情况,大约在 2015-2016年,那时的AI热潮不仅包括自动驾驶,还涉及一些技术和算法的变化,比如强化学习和 CNN这些技术的突破。紧接着再往下那一波,AI 逐渐开始与科学相结合,进入了所谓的“ AI for Science ”阶段。

当下这波大模型也是一次 AI技术的提升 。 具身智能机器人 是在这一波里先受到关注或者说被 阳光 照进来的领域,就像自动驾驶曾经引领当年的AI热潮一样。如果大家不再仅仅追求更“大”的模型, AI的进步将会像阳光一样普照 其他重要行业和更多领域。

文章来自于“峰瑞资本”,作者“陈文光,李丰”。

对话清华教授陈文光:如果大模型不再拼“大”?

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...