在2024年Snowflake峰会开发者日活动上,吴恩达教授发表了题为《如何通过Al智能体工作流推动比下一代基础模型更多的Al进步》(How Al Agentic workflows could drive more Al progress than even the next generation of foundation models的分享,把Agentic AI再次推向公众,并指出Agentic AI可能是比下一代基础模型更具潜力的AI发展方向

此前OpenAI也在一篇白皮书《智能体式人工智能系统的治理实践》(Practices for Governing Agentic AI Systems)中提到过Agentic AI。

反思能力是AI Agent 智能化的关键

OpenAI白皮书

这恰恰也是澜码始终倡导的。因为在我看来,正如自动驾驶技术被业界从L0至L5分级以衡量其自动化水平,Agent也应当按照智能化程度被划分,而“Agentic AI ”可以更好地表达出了Agent的智能程度和「灰度」——Agent可以越来越复杂,并且随着大模型或行业的发展,它会变得越来越智能。

正如吴恩达教授在文章中提到的:“与其以二元方式选择某个系统是否是Agent,不如将系统视为具有不同程度的Agent特性更有用。”

此外,我认为对于Agentic AI 来说,最重要的是具备反思能力,能够探索环境、理解目标,这样就能够做到适应环境,并且独立完成目标,从而成为一种新质生产力,进一步推动全要素生产率的提升。

为什么Agentic AI 是更具潜力的AI发展方向

Agentic AI即智能体式AI,是指被设计用来通过理解目标、导航复杂环境,并在最少的人工干预下执行任务的系统,能够通过自然语言输入独立和主动地完成端到端任务。通常被设计为更具自主性和适应性,不仅能处理数据,还做出决策、从互动中学习,并采取积极的步骤来实现复杂目标。

Agentic AI利用大型语言模型 (LLM)、可扩展的计算能力和庞大的数据集等不断进步,提供了一种更加动态和灵活的方法。它结合了强化学习(RL)和决策理论,可以从互动中学习并随时间优化,不仅能对情况做出反应,而且能积极地参与决策过程。

也就是说,名词“Agent”仅用于表明某个产品或项目是否为AI Agent、是否具备了智能特性,而形容词“Agentic”则意味着AI产品或项目的Agentic特性的程度,即它们能否体现更强大的主动性、自治性和适应性。前者仍在探讨Agent产品或项目的相关特性,后者则在探讨产品的智能程度,显然后者更有意义

从AI Agent到Agentic AI system,即使当前所探讨的内容仍是AI Agent相关的技术、产品或解决方案,但立足点已经截然不同,我认为这是一个认知上的重大转变。如果说AI Agent仍然属于产品思维,Agentic AI System已经上升到战略思维

Agentic AI进一步代表了一类AI技术、产品、方案、生态乃至战略的总体集合,必然也会像GenAI等词汇一样被更多的组织放到其战略报告之中。

从定义和概念而言,AI Agent是一种能够感知环境、进行决策和执行动作的智能实体。它们通常基于机器学习和人工智能技术,具备自主性和自适应性,在特定任务或领域中能够自主地进行学习和改进。其核心功能可以归纳为三个步骤的循环:感知、规划和行动。

Agentic AI是具有更高程度自主性的AI系统,它们能够主动思考、规划和执行任务,而不仅仅依赖于预设的指令,它强调的是系统可以具有不同程度的“能动性”(Agentic特性),而不仅仅局限于被动执行指令

吴恩达教授总结和介绍了四种较为常见的设计模式,分别是反馈(Reflection)、工具使用(Tool Use)、规划(Planning)和多智能体协作(Multi-agent Collaboration)。

反思能力是AI Agent 智能化的关键

图源:Andrew Ng

而之前Lilian Weng提到的以Plan+Tool Use+Short/Long Term Memory这样设计出来的Agent,看起来只能在人类将环境和目标用机器能够理解的方式教会Agent,这样Agent才可以进行规划,利用记忆、使用工具来完成任务。

 

从人类智力的发展推演如何构建Agentic AI

OpenAI在白皮书中将Agentic AI systems概念化为「追求人类定义的目标,并在人类确定的环境中运行(并且经常与人类“队友”合作),而不是完全自主设定自己目标的系统」。

那么该如何构建和发展Agentic AI Systems?

我认为,通过观察和理解物理世界中动物与人类如何发展智力,以及如何与周围环境互动,也许可以作为一种借鉴,去推演出智能体系统(Agentic AI Systems)应该如何构建和发展

那么我们先来看看在人类和动物的世界,本能、习惯、智力三者之间有什么关系?

蜜蜂能回家,是因为它智力水平高还是因为本能?植物的向光性是否说植物的智力很高?事实上,蜜蜂能够回家是因为它们具有天生的本能,而非智力,虽然蜜蜂的行为看起来很复杂,但它们是受到基因编程的驱动,而不是通过智力来解决问题;植物的向光性也不是智力体现,而是生长机制。

对人类而言,本能是生来就有的行为模式,是智力行为的基础。随着人类不断学习和实践,这些行为模式会逐渐固化为习惯,成为我们智力活动的一部分。本能是智力行为的原初动作,习惯是智力的固化

举个例子,会开车算不算智力?学习开车算智力,但学会开车后就变成了习惯。因此,我们可以认为习惯是智力发展的凝固,也是智力发展的平台与基础。智力是意识层面的分析与行动,智力被“自动化”后就成为了习惯。

因此,可以说人类智力的发展就是在不断“自动化”的过程——识字自动化、阅读自动化、写作自动化。意识目标转念为智力形成,形成习惯。

反思能力是AI Agent 智能化的关键

图源:澜码科技

我想说的是,智力是一个复杂的系统,它既包括内在的认知和情感过程,也包括外在的行为和结构表现,而且智力的发展是通过不断的自我调整和适应来实现的,而本能和习惯在这个过程中扮演着重要角色。

相对应地,在计算机的世界,“本能”可以类比为程序员根据特定设计所编写的代码,一旦编写完成,便难以修改,因而更接近于人的本能;智力更像是机器学习中的模型,它能够处理各种类型的数据,只要这些数据按照模型要求的格式输入即可

另外,人类相较于动物最为显著的优势之一是语言能力,正是通过这种语言能力,人类的智能得以极大的发展和提升。

所以人类的环境就(比动物和植物的环境)多了一个“智能世界”,或者其实在AI出现之前,智能世界就是我们的社会。人类通过各种本能、习惯、制度构建了社会的各种法律、道德等。而数字世界就是当前的互联网,有大量由人类创造的数码物。

对应到Agentic AI的构建,如下图所示,我们认为Agentic AI有三类完全不同的环境:智能世界、数字世界和物理世界。

反思能力是AI Agent 智能化的关键

图源:澜码科技

Agentic AI 需要具备反思能力

在吴恩达最新提到的Agentic Workflow中,提到了反思能力和多Agent协作,虽然也提到了Plan和Tool Use,但我认为,“反思”是十分重要的一个功能,这样Agentic AI就有了适应环境的能力,因为环境和目标是可以动态变化的

比如在企业服务环境中,任何一个流程的目标和上下文,有相对稳定的静态知识的结构,但也会由于公司内外环境的变化而调整。智能的作用就是通过反思来进行分析和实践,其中实践更是十分重要

在我看来,以往专家知识在企业内部的实践,其实就是大数据的处理过程,只不过这个过程主要依赖于专家的知识和经验,而不是通过机器学习算法来完成。

人类的智能还主要体现在能够分析和实践两大方面。在分析领域,“智能”侧重于抽象思维、逻辑推理以及运用语言和数学的能力。而在实践层面,“智能”包含隐性知识,我们通常称之为“常识”。

人类在对话和描述问题时,这类隐性知识往往不被明确提及,因为我们默认或假定人们都已经掌握了。隐性知识往往是在日常经验中而非正式教育环境下习得的,由于难以用言语明确表达,隐性知识在日常讨论中较少被触及,也正因为表达上的困难,隐性知识在问题解决中的关键作用往往被低估。

那么为什么Agentic AI需要有适应环境的能力?

在人类世界,智能不仅表现为对挑战和问题的反应性处理,还体现在主动探索和实践。聪明的个体不会仅限于在遇到困惑或问题时作出反应,他们积极寻找潜在的问题,并探索周围的环境,以便能够更加有效地预见并解决问题,解决问题的一种方法就是改变环境。

此外,智能还体现在设定和实现目标的能力上。聪明的个体能够认识到问题的存在、精准地定义问题的本质,并将其表述出来。他们能够识别自己的知识盲点,并努力获取这些知识、填补这些空白。虽然聪明的人受益于结构化指令,但他们同样具备独立寻找和利用信息资源的能力。

企业服务场景下,如何将自动化发展为智能化?

自动化机器决策的隐患是“不能只告诉机器要实现的目标,还要约束机器实现目标的方法”。

人类在决策过程中,常常需要在多个指标之间寻求平衡。然而,机器做出的决策可能会过分侧重于某些指标,从而不能达到理想的平衡状态。当人们表达自己的需求时,往往会优先考虑准确性,这会导致最终的结果偏离人们真正的期望。

解决这类问题的办法,是让机器用人能明白的方法和逻辑进行决策。这里所说的“人能明白的方法和逻辑”就是我们需要赋予机器的本能。 

在企业服务领域,Agent从自动化到智能化的发展过程,是应用场景变化的过程,也是人机关系演进的过程。

在自动化过程中,AI的目标和环境是由人类员工预先给定和解释的,这些参数是固定不变的。然而,对智能化的期望则是AI能够通过分析和实践,与人类员工一起作出决策,帮助人类员工将知识显性化,收集实践的数据,并通过反思过程实现知识的完整闭环

而要释放智能潜力的前提是数字化、网络化企业内的线索。

第一条线索是数字化的线索。随着数字化技术的发展,我们有条件对组织本身和系统本身记录静态和动态属性,从而及时、准确、完整地描述业务对象,从而为智能化奠定基础。

第二条线索是网络化的线索,信息集成的线索有三条:横向集成,纵向集成和端到端集成。销售、制造、采购的集成属于横向集成,而管理和控制的融合则属于纵向集成。

数字化线索的作用是让计算机获得静态和动态数据,做到“知己”。网络化线索的作用,是用来获取与系统相关的外部信息,实现“知彼”。

由此可见,数字化和网络化会让计算机逐步具备“知己知彼”的能力,从而为计算机决策奠定基础。

企业内的信息系统很多时候是在为业务对象进行赋值,用ID来表征,其实就是降低不同角色的员工之间交流时可能引起误解的风险。这些对于业务对象和业务关系的识别也属于企业内的AI Agent的本能,需要我们在设计时能够赋予

而这些数字化和网络化的线索其实就是企业中的数据。包括各种管理系统里的,也包括各种人类沟通系统中的数据,比如邮件、IM、会议系统中的数据等等。

反思能力是AI Agent 智能化的关键

图源:澜码科技

人类所能利用的知识、信息和资源来自开放的空间,其能力可以灵活应对各种开放式问题。相比之下,机器获取信息、知识和资源的范围则局限于相对封闭的体系。

算法是为了特定目标而建立的,而人类却拥有一个能够综合处理知识的大脑,能够应对各种开放性的问题,并根据实际条件和要求,不断拓展信息和知识来源的边界,甚至不断提出或修正目标。

在决策过程中,机器能够为人类提供更多的信息,而为了实现有效的人机协同决策,机器需要具备一定的认知能力,能够主动发现异常情况,并向人类推送相关的实践、异常、信息和知识,以便提醒人类做出决策,甚至提供可选方案,类似于人类的秘书和助手

在机器自主决策的过程中,人类需要适度干预机器的执行。一种方法是,在正常情况下由机器进行决策,遇到特殊问题时,决策权则转交给人类;另一种方法是,机器在完成决策后,需要经过人类的确认才能执行。

澜码倡导的Agentic AI需要能够突破过去机器决策的局限性,通过和智能环境中的人类互动,主动发现数字环境中新的信息来源和知识来源,从而在工程实践中在更强大的大模型支持下,Agentic AI能够形成自我学习和反思的能力,以突破当下的发展瓶颈。

而且我们相信,在专家知识的帮助下,AI Agent能够用更小的模型、更少的算力达到更好的效果。

文章来自于“36Kr”,作者 “周健”

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...