“人工智能本就是一个综合性学科,如果研究的成果不能很快被应用,它的价值很可能被遗忘。所以在KEG,我们会把研究和工程放在相对平等的位置上。这个风格也延续到我们出来做公司。”
去年10月,智谱AI CEO张鹏在ChatGLM3发布前后的一次媒体采访中说。这家由清华大学知识工程实验室(KEG)孵化的人工智能公司在同月发布的这款基座模型,性能上开始追平GPT-3,甚至看向GPT-4。在整个2023年,智谱AI累计获得超25亿元融资,也成为国内估值最高的大模型公司之一。
2023年3月14日,智谱AI发布了ChatGLM系列的第一款基座模型。回头来看,这个日子或许是生成式AI的重要一天。这一天内,OpenAI发布了GPT-4,同根同源的竞争者Anthropic发布了Claude,谷歌推出了对抗OpenAI和微软组合的PaLM API服务,而新锐的Midjourney发布了V5。
一年时间足够让生成式AI从一场技术奇观转入一个商业化的初期阶段。
ChatGP和Claude首先迅速转入订阅制,同时放出了API调用的定价模式。微软Azure云服务中目前53000左右的客户数量中,有1/3来自最近12个月,而这几乎完全归功于OpenAI。
相比于OpenAI,缺少微软这个天然用户池的Anthropic更坚决地走向了企业客户。科技公司Gitlab、Notion、Quora和Salesforce;金融巨头桥水公司(Bridgewater)和企业集团SAP,以及商业研究门户网站LexisNexis、电信公司SK Telecom等行业的响亮名字都出现在Anthropic的客户名单上。“Anthropic更像是一家企业公司,而不是一家消费者公司。”
Anthropic联合创始人达里奥·阿莫迪和丹妮拉·阿莫迪兄妹在Claude 3发布时强调了这一点。
在国内的大模型初创公司中,智谱AI或许是最早开始商业化的。它在产品和生态的布局上有几分像OpenAI,而在落地的思路上又多了些Anthropic的影子。
距离2023年3月14日已经一年,智谱AI背后商业化生态的图景已经展开。
逐渐成型的生态
Sora出现的时候,张鹏并不惊讶。在他看来,Sora只是OpenAI技术领先的又一次验证,只不过他用一种更直观的方式把这个差距具像化了。就像2022年末的ChatGPT一样。
张鹏曾谈到对智谱AI产生重要影响的时刻,其中的一个时刻是ChatGPT的发布。
其实在ChatGPT之前,InstructGPT和WebGPT等技术我们一直有,也预感到基于GPT-3这样一个优秀千亿基座的智能应用会迎来爆发。但ChatGPT的上线给我们一个明显信号:预训练模型已经到了完全可使用且好用的阶段,是产品化的很好范例。
OpenAI在基础模型的性能层面不断演进,以ChatGPT惊艳亮相在大众视线之后,逐渐变成了一家非常紧凑的产品公司。而对标OpenAI的智谱AI,有意在产品化上跟住OpenAI的节奏。
图源:智谱AI
从基础模型GLM和API能力的开放,到对话模型ChatGLM和代码模型CodeGeeX,以及多模态方面从2021年开始布局的文生视频模型CogVideo。以张鹏的话来说,智谱AI在产品线上与OpenAI做了“全线的对标”。但这种对标并不是不加思考地跟随,而是在AGI的一致目标下有着相似的技术积累阶段。
在OpenAI发布GPTs的那场开发者大会上,CEO山姆·奥特曼公布了一组数据。围绕着OpenAI丰富的产品能力,已经有大约200万开发人员在其API上构建各种各样的应用,超过92%的全球500强企业正在使用其产品,ChatGPT的周活跃用户则达到大约1亿。
而随着GLM-4的发布,智谱AI背后的多重生态也开始成型。
2024年初,智谱AI在首届AI技术开放日DevDay上发布了最新的基座大模型GLM-4。第一批体验到GLM-4模型的人是大量热忱的开发者,随着GLM-4在性能上开始接近GPT-4,构建AI应用生态的那个爆发点看起来也呼之欲出。对标OpenAI的GPTs,智谱AI在DevDay上发布了GLMs。
GLMs是智谱AI在基础模型进入一个成熟阶段后对于开发者生态的一次加码。但在GLMs之前,智谱AI很早开始布局的开源路线到现在已经聚拢起一大批开发者。
在对于大模型的共识还没有形成之前,开源是智谱AI介绍自己的方式。“为了让大家知道智谱在做什么。也是为了让更多的人参与进大模型,用社区的方式、汇集大家的热情一起来推动大模型发展。”张鹏说。
早在2022年8月,智谱AI就开源了1300亿参数规模的双语预训练模型GLM-130B,并且收到了70余个国家1000余个研究机构的使用需求。今年3月与基座模型ChatGLM同步,智谱AI开源了单卡版模型ChatGLM-6B。截至今天,ChatGLM-6B到目前为止累计的全球下载量已经超过1300万,在github上新数已经达到5万,在量级上已经超过Meta的知名的LlaMA两个版本的总和。
智谱AI也在去年获得了HuggingFace全球最受欢迎开源机构排名的第五名,高于OpenAI和谷歌,也是唯一上榜的中国机构和组织。
随着GLM-4的发布,智谱AI同时发起了一项大模型开源基金。智谱AI将为大模型开源社区提供一千张卡,助力开源开发;提供1000万元的现金用来支持与大模型相关的开源项目;为优秀的开源开发者提供1000亿免费API tokens。智谱AI CEO张鹏表示,大模型开源基金的目的在于推动大模型研发的大进展,促进大模型整个开源生态的大繁荣。
值得一提的是,在智谱AI众多开源模型中,ChatGLM-6B 和 ChatGLM2-6B 权重对学术研究完全开放,并且在完成企业登记获得授权后允许免费商业使用。智谱AI对学术生态的重视可见一斑。
丰富的产品生态,开源道路的努力,开始逐渐成为智谱AI通往商业化的桥梁。
从生态通往商业
去年3月,微软宣布了Office365 Copilot,Adobe则在几乎同时推出了AI工具Firefly。一切都预示着大模型的落地会成为生产力工具的一次再造。包括WPS在内主要产品月活设备接近6亿的金山来说,这是一场必须赶上的变革。
去年7月,金山办公的WPS AI逐步开放全新AI功能测试体验,背后智谱AI的GLM大模型支撑着WPS在Word、PPT等产品线的智能化升级。
通过集成智谱AI的GLM大模型,WPS AI不仅能够根据用户的简要输入快速生成规范的文档内容,如红头文件、会议纪要等,还能在政府办公领域提供辅助写作服务,支持多种公文体裁,极大地提升了文档处理的效率和专业性。
图源:WPS
WPS AI在PPT演示文档的制作上也展现了其强大的功能,用户只需提供主题,AI便能自动完成从大纲到内容的创作,甚至包括演讲稿的撰写,以及PPT的排版工作,极大地简化了用户的操作流程。这一创新举措不仅节省了宝贵的时间,也使得用户能够更加专注于内容的创意和表达。
金山办公通过开放平台API调用GLM大模型,并结合自身丰富的场景需求描述及模板,构建了一套高效的测试集。智谱AI的GLM大模型在核心办公场景中展现出卓越的性能,为金山办公的产品线注入了新的活力。根据用户反馈,WPS AI的用户满意度已超过95%。
不止工作流层面的变革,智谱AI的商业化生态已经开始积累出不同层次。
德勤中国,作为一家为本地及跨国企业提供综合性服务的机构,面临着将大量文档资料转化为可操作信息的挑战。传统的工作流程中,顾问们需要手动筛选关键数据,撰写报告草稿,这一过程不仅耗时,而且对顾问的专业水平要求较高,容易出现遗漏和错误。
为了提高效率和准确性,德勤中国引入了基于智谱AI的GLM大模型的报告生成智能助手。该助手通过云私有部署的方式,允许用户上传多种格式的文档资料,然后智能地进行文档解析、数据切分和信息提取。在报告撰写环节,智能助手能够根据预设的规范格式,自动生成报告草稿,显著减少了人工撰写的时间和劳动强度。
此外,智能助手还集成了快捷翻译功能,解决了报告撰写过程中的语言障碍问题,提高了翻译的效率和质量。这一改进不仅加快了报告的生成速度,也降低了翻译和复核的成本,同时提高了信息的准确性和报告的专业度。从德勤中国的使用反馈来看,GLM大模型在中文环境下表现出了超出同类模型的能力,整体员工效率提升了10%左右。
而在C端,智谱AI帮助马蜂窝打造了AI小蚂应用,这个有着海量用户和旅行内容数据的旅行社交平台,亟需这样一位能为用户提供出行资讯服务的“导游”。
图源:智谱AI
在大模型的加持下,AI小蚂能够理解用户的个性化、多样化的意图,并提供精准的问题回答和个性化的内容服务。此外,它还能够结合历史对话信息和指代信息进行语义补全,使对话内容更具连续性。甚至从历史对话中抽取关键信息,如POI(兴趣点)、天气信息等,建立用户行程信息库,用于后续的对话回忆、问题引导和精准回答。
通过智谱AI的技术赋能,马蜂窝的AI小蚂应用不仅提高了用户获取旅行信息的效率,还增强了平台的互动性和个性化服务能力。
在此之前,全球知名的旅行Booking.com在去年年中推出了AI对话功能AI Trip Planner,背后提供技术支持的是OpenAI的ChatGPT API。测试版AI Trip Planner从当地时间6月28日开始向美国Booking.com的Genius忠诚会员推出。最初只能在该OTA的App中访问,但该公司计划将来将其扩展到PC端软件中。
一条自己的道路
大模型在真实商业世界中的落地并不会是一场对旧世界完全的颠覆,更多是从AI小蚂、AI Trip Planner这样渗透式的变化开始。而对于智谱AI来说,要在国内作为一家“企业公司”站稳脚跟,需要找到一个与国际同行不同的商业化路径。
“到目前为止,我们现在有三种方式来实现这样一个商业化落地。”张鹏表示。
第一种是最轻量级的,也就是完全标准化的API调取。“我们把我们的模型封装成开放平台,提供API的方式给我们的开发者、企业去进行调用,按照调用量进行付费,这种商业模式非常简单、成熟,就看使用量。”
不过虽然生成式AI会推动国内SaaS市场的进一步成熟,但目前私有化方案仍然是最有效的商业模式。
第二种是当标准化的版本还不能满足需求的时候,比如客户需要独立的数据保障,但同时又不希望自己去维护算力等基础设施。智谱会提供基于云端算力的云端私有化的方案,利用我们自己云端的算力帮用户开辟专门的模型的专区,它在使用整个服务过程当中保持数据与其他客户的相对隔离。
除此之外,中国还有着大量完全私有化的企业需求。国有企业或者是一些非常关注数据安全和保密的行业要求自己的数据、自己的系统不能出自己的物理边境,“第三种方式就是针对这种情况,以完全私有化落地的方案进入到企业当中,在企业提供的硬件和算力基础平台上,为大家提供大模型的基座能力,去开发相应的应用和业务的需求满足。”
在2023年3月14日,这个大模型的重要时间节点一年之后,张鹏再次出现在外界面前。目前智谱AI已经与2000多家生态合作伙伴建立了合作关系,实现了1000多个大模型规模化应用,并与200多家企业进行了深度共创。
图源:智谱AI
对于这一年内商业化上的进展,张鹏表示这归功于智谱AI对自己边界的认识。
“我们非常清楚我们的长项、优势和目前为止还不太擅长的事情。所以我们的选择是开放共赢。总有在行业当中摸爬滚打很多年的一些企业、伙伴,他们积累了对这个行业的知识,积累了丰富的实践经验,他们非常迫切地想要引入全新的AI能力,但他们苦于技术的发展非常快速,也没有很好的消化时间和周期,不知道如何让大模型的能力在行业当中进行落地。”
“反过来,我们对大模型的本质以及如何应用诱发它的能力是更清楚的。”张鹏表示。
值得一提的是,从今年1月智谱AI发布GLMs以及“智能体中心”应用商店,至今用户已经贡献了超过20万个创新的智能体应用。这20万个智能体的背后是性能强悍的GLM-4。随着性能的提升,大模型开始从一个新奇的玩具,开始转向去解决一些工作和生活中的“真问题”。
如果说2024年之前,关于大模型的思考仍然是极客式的,关于技术路线和极致的能力。进入2024年后,如何找到客户、如何落地将是每一个大模型公司所面对的“真问题”。但这很大程度上并不是一个“如何找到客户”的问题,而是关于“如何被客户选中”。围绕GLMs聚拢起来的开发者、迅速生长起来的客户生态,就是一场直接的用脚投票。模型性能的高低,最终会成为大模型公司在商业化竞争中的胜负手。
这又回归到了出身学界的智谱AI屡次提到的,朴素的发展道路——在基础模型的性能上做到领先。
张鹏提到了团队曾经训练中的一个细节。在2021年左右对大模型的共识远未像现在这样广泛被接受的时候,研发团队曾经维持了很长一段时间24/7的强度。如果凌晨3点时候的训练中有一张卡掉了,研发人员会是最先发现的,并且能够在10分钟内告知远程的运维人员。这样承受巨大压力的高强度研发了近一年后,智谱AI拿出了GLM-130B。后者是2022年11月发布的斯坦福大模型中心测评榜单中亚洲唯一入选的大模型。这个千亿参数的稠密模型确立了智谱AI的位置,也第一次把智谱AI大范围引到全球的客户面前。
或许在大模型商业化这件事上,技术理想主义是最大的实用主义。
文章来自于微信公众号 “ 硅星人Pro””,作者 “油醋
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则