Scaling Law 持续见效,让算力就快跟不上大模型的膨胀速度了。「规模越大、算力越高、效果越好」成为行业圭皋。主流大模型从百亿跨越到 1.8 万亿参数只用了1年,META、Google、微软这些巨头也从 2022 年起就在搭建 15000 卡以上的超大集群。「万卡已然成为 AI 主战场的标配。」
然而在国内,全国产化的 GPU 万卡集群,则是屈指可数。有超大规模,同时还具备超强通用性的万卡集群,更是行业空白。
当国产 GPU 万卡万 P 集群首次亮相时,自然就引发了行业广泛关注。
7 月 3 日,摩尔线程在上海重磅宣布其 AI 旗舰产品夸娥(KUAE)智算集群解决方案实现重大升级,从当前的千卡级别大幅扩展至万卡规模。摩尔线程夸娥(KUAE)万卡智算集群,以全功能 GPU 为底座,旨在打造国内领先的、能够承载万卡规模、具备万 P 级浮点运算能力的国产通用加速计算平台,专为万亿参数级别的复杂大模型训练而设计。这一里程碑式的进展,树立了国产 GPU 技术的新标杆,有助于实现国产智算集群计算能力的全新跨越,将为我国人工智能领域技术与应用创新、科研攻坚和产业升级提供坚实可靠的关键基础设施。
此外,摩尔线程联合中国移动通信集团青海有限公司、中国联通青海公司、北京德道信科集团、中国能源建设股份有限公司总承包公司、桂林华崛大数据科技有限公司(排名不分先后)分别就三个万卡集群项目进行了战略签约,多方聚力共同构建好用的国产 GPU 集群。
摩尔线程创始人兼 CEO 张建中表示:“当前,我们正处在生成式人工智能的黄金时代,技术交织催动智能涌现,GPU 成为加速新技术浪潮来临的创新引擎。摩尔线程矢志投身于这一历史性的创造进程,致力于向全球提供加速计算的基础设施和一站式解决方案,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。夸娥万卡智算集群作为摩尔线程全栈 AI 战略的一块重要拼图,可为各行各业数智化转型提供澎湃算力,不仅有力彰显了摩尔线程在技术创新和工程实践上的实力,更将成为推动 AI 产业发展的新起点。”
AI 主战场,万卡通用算力是标配
大模型自问世以来,关于其未来的走向和发展趋势亟待时间验证,但从当前来看,几种演进趋势值得关注,使得其对算力的核心需求也愈发明晰。
首先,Scaling Law 将持续奏效。Scaling Law 自 2020 年提出以来,已揭示了大模型发展背后的 “暴力美学”,即通过算力、算法、数据的深度融合与经验积累,实现模型性能的飞跃,这也成为业界公认的将持续影响未来大模型的发展趋势。Scaling Law 将持续奏效,需要单点规模够大并且通用的算力才能快速跟上技术演进。
其次,Transformer 架构不能实现大一统,和其他架构会持续演进并共存,形成多元化的技术生态。生成式 AI 的进化并非仅依赖于规模的简单膨胀,技术架构的革新同样至关重要。Transformer 架构虽然是当前主流,但新兴架构如 Mamba、RWKV 和 RetNet 等不断刷新计算效率,加快创新速度。随着技术迭代与演进,Transformer 架构并不能实现大一统,从稠密到稀疏模型,再到多模态模型的融合,技术的进步都展现了对更高性能计算资源的渴望。
与此同时,AI、3D 和 HPC 跨技术与跨领域融合不断加速,推动着空间智能、物理 AI 和 AI 4Science、世界模型等领域的边界拓展,使得大模型的训练和应用环境更加复杂多元,市场对于能够支持 AI+3D、AI + 物理仿真、AI + 科学计算等多元计算融合发展的通用加速计算平台的需求日益迫切。
多元趋势下,AI 模型训练的主战场,万卡已是标配。随着计算量不断攀升,大模型训练亟需超级工厂,即一个 “大且通用” 的加速计算平台,以缩短训练时间,实现模型能力的快速迭代。当前,国际科技巨头都在通过积极部署千卡乃至超万卡规模的计算集群,以确保大模型产品的竞争力。随着模型参数量从千亿迈向万亿,模型能力更加泛化,大模型对底层算力的诉求进一步升级,万卡甚至超万卡集群成为这一轮大模型竞赛的入场券。
然而,构建万卡集群并非一万张 GPU 卡的简单堆叠,而是一项高度复杂的超级系统工程。它涉及到超大规模的组网互联、高效率的集群计算、长期稳定性和高可用性等诸多技术难题。这是难而正确的事情,摩尔线程希望能够建设一个规模超万卡、场景够通用的加速计算平台,并优先解决大模型训练的难题。
夸娥:国产万卡万 P 万亿大模型训练平台
夸娥(KUAE)是摩尔线程智算中心全栈解决方案,是以全功能 GPU 为底座,软硬一体化、完整的系统级算力解决方案,包括以夸娥计算集群为核心的基础设施、夸娥集群管理平台(KUAE Platform)以及夸娥大模型服务平台(KUAE ModelStudio),旨在以一体化交付的方式解决大规模 GPU 算力的建设和运营管理问题。
基于对 AI 算力需求的深刻洞察和前瞻性布局,摩尔线程夸娥智算集群可实现从千卡至万卡集群的无缝扩展,旨在满足大模型时代对于算力 “规模够大 + 计算通用 + 生态兼容” 的核心需求,通过整合超大规模的 GPU 万卡集群、极致的计算效率优化以及高度稳定的运行环境,以万卡智算集群的新超级工程,重新定义国产集群计算能力的新标准。
夸娥万卡智算解决方案具备多个核心特性:
- 超大算力,万卡万 P:在集群计算性能方面,全新一代夸娥智算集群实现单集群规模超万卡,浮点运算能力达到 10Exa-Flops,大幅提升单集群计算性能,能够为万亿参数级别大模型训练提供坚实算力基础。同时,在 GPU 显存和传输带宽方面,夸娥万卡集群达到 PB 级的超大显存总容量、每秒 PB 级的超高速卡间互联总带宽和每秒 PB 级超高速节点互联总带宽,实现算力、显存和带宽的系统性协同优化,全面提升集群计算性能。
- 超高稳定,月级长稳训练:稳定性是衡量超万卡集群性能的关键。在集群稳定性方面,摩尔线程夸娥万卡集群平均无故障运行时间超过 15 天,最长可实现大模型稳定训练 30 天以上,周均训练有效率目标最高可达 99% 以上,远超行业平均水平。这得益于摩尔线程自主研发的一系列可预测、可诊断的多级可靠机制,包括:软硬件故障的自动定位与诊断预测实现分钟级的故障定位,Checkpoint 多级存储机制实现内存秒级存储和训练任务分钟级恢复以及高容错高效能的万卡集群管理平台实现秒级纳管分配与作业调度。
- 极致优化,超高 MFU:MFU 是评估大模型训练效率的通用指标,可以直接反应端到端的集群训练效率。夸娥万卡集群在系统软件、框架、算法等层面一系列优化,有效计算效率(MFU)目标最高达 60%,可达到国际水平。其中,在系统软件层面,基于极致的计算和通讯效率优化等技术手段,大幅提升集群的执行效率和性能表现。在框架和算法层面,夸娥万卡集群支持多种自适应混合并行策略与高效显存优化等,可以根据应用负载选择并自动配置最优的并行策略,大幅提升训练效率和显存利用。同时,针对超长序列大模型,夸娥万卡集群通过 CP 并行、RingAttention 等优化技术,有效缩减计算时间和显存占用,大幅提升集群训练效率。
- 全能通用,生态友好:夸娥万卡集群是一个通用加速计算平台,计算能力为通用场景设计,可加速 LLM、MoE、多模态、Mamba 等不同架构、不同模态的大模型。同时,基于高效易用的 MUSA 编程语言、完整兼容 CUDA 能力和自动化迁移工具 Musify,加速新模型 “Day0” 级迁移,实现生态适配 “Instant On”,助力客户业务快速上线。
万众一芯,共建大模型应用生态
万卡集群的建设需要产业界的齐心协力,为实现大模型创新应用的快速落地,让国产算力 “为用而建”。发布会现场,摩尔线程携手中国移动通信集团青海有限公司、中国联通青海公司、北京德道信科集团、中国能源建设股份有限公司总承包公司、桂林华崛大数据科技有限公司(排名不分先后),分别就青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目进行了战略签约。
借助摩尔线程先进的夸娥全栈智算解决方案,各方将携手共建强大的全国产智算平台,以加速产业数字化转型和高质量发展。夸娥万卡智算集群项目标志着国产 AI 算力基础设施的又一重大进展,将为各地的数字经济发展注入新活力。
摩尔线程与中国移动通信集团青海有限公司战略签约
摩尔线程与中国联通青海公司、北京德道信科集团战略签约
摩尔线程与中国能源建设股份有限公司总承包公司、桂林华崛大数据科技有限公司战略签约
发布会后,无问芯穹、清程极智、360、京东云、智平方等五家合作伙伴代表纷纷登台,分享了摩尔线程夸娥智算集群如何助力其在大模型训练、大模型推理、具身智能等不同场景和领域的创新,展现了夸娥智算集群在实际应用中的巨大潜力与广泛适用性。
摩尔线程愿与广大行业伙伴并肩同行,发挥全栈 AI 的力量,加速推动一个由万卡智算集群为强大底座,多领域伙伴共建、广泛赋能数字经济的国产智算生态,共同开启一个属于大模型与生成式人工智能的新时代,为美好世界加速。在 WAIC 期间,摩尔线程将在上海世博展览馆(H2 馆 D616)开展 “全栈 AI 为美好世界加速” 的主题成果展示,包括加速卡、服务器、超融合一体机和 AIGC 应用在内的摩尔线程全栈 AI 产品悉数亮相,并携手众多行业合作伙伴联合展示基于夸娥智算集群的丰富行业大模型与应用方案。
文章来源于:微信公众号机器之心
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则