网界
网络资讯 网界财经 科技人物 数据洞察 行业动态 智能出行 智能手机 数码极客 商业资讯

豆包大模型UltraMem:推理成本大降,性能超越MoE架构

2025-02-12来源:ITBEAR编辑:瑞雪

近日,字节跳动旗下的豆包大模型团队对外公布了一项重大技术突破,他们研发出了一种名为UltraMem的全新稀疏模型架构。这一创新架构旨在解决当前混合专家(MoE)模型在推理过程中面临的高昂访存问题,为提升AI模型的推理速度和降低成本提供了新的解决方案。

据悉,UltraMem架构通过独特的设计,成功实现了计算与参数的解耦,从而在保持模型效果的同时,显著降低了推理时的访存需求。与传统的MoE架构相比,UltraMem在推理速度上实现了2至6倍的提升,推理成本最高可降低83%。这一成果不仅彰显了UltraMem在性能上的优势,更为构建大规模AI模型开辟了全新的路径。

实验数据表明,当UltraMem模型的训练规模达到2000万value时,它在同等计算资源下展现出了业界领先的推理速度和模型性能。这一突破性的表现,预示着UltraMem在构建数十亿规模value或expert的AI模型方面具有巨大的潜力。

UltraMem架构的核心优势在于其高效的内存访问机制。在参数和激活条件相同的情况下,UltraMem不仅超越了MoE模型在效果上的表现,还显著提升了推理速度。在常见的batch size规模下,UltraMem的访存成本几乎与同计算量的Dense模型相当,这一特点使得UltraMem在实际应用中具有更高的性价比。

在Transformer架构的背景下,模型的性能往往与其参数数量和计算复杂度密切相关。然而,随着大型语言模型(LLM)规模的不断扩大,推理成本急剧增加,速度也随之变慢。MoE架构虽然通过将计算和参数解耦在一定程度上缓解了这一问题,但在推理时仍面临较小的batch size激活全部专家导致的访存急剧上升和推理延迟大幅增加的挑战。

UltraMem架构的推出,正是针对这一挑战提出的解决方案。它不仅继承了MoE架构在计算和参数解耦方面的优势,还通过优化内存访问机制,显著降低了推理时的访存成本和延迟。这一创新成果不仅为AI模型的发展注入了新的活力,也为未来AI技术的应用提供了更加高效、经济的解决方案。

阿里巴巴“通义”App升级更名“千问”,AI战略转向消费级市场新布局
根据官方消息,“千问”定位为阿里旗下最重要的大模型应用入口,其核心能力基于阿里自研的大模型体系Qwen(千问)。 分析人士指出,阿里此前在To B市场和模型研发侧拥有技术基础,但在消费端应用分发层面还未形成…

2025-11-15

Dexmal原力灵机获近10亿融资 阿里蔚来资本助力具身智能研发落地
IT之家 11 月 14 日消息,具身智能公司 Dexmal 原力灵机今日宣布完成数亿元 A+ 轮融资,阿里巴巴为独家投资方。IT之家注意到,该公司 A 轮融资由蔚来资本领投,洪泰基金、联想创投、锡创投和正…

2025-11-14

百度世界大会发布文心大模型5.0 参数量2.4万亿能力达全球领先
文心5.0基础能力全面升级,在多模态理解、指令遵循、创意写作、事实性、智能体规划与工具应用等方面表现突出,拥有强大的理解、逻辑、记忆和说服力。不同于业界多数的多模态模型采用后期融合的方式,文心5.0的技术路…

2025-11-13