网界
网络资讯 网界财经 科技人物 数据洞察 行业动态 智能出行 智能手机 数码极客 商业资讯

​中国科研团队发布类脑脉冲大模型“瞬悉” 1.0 开启新一代人工智能发展新路径​

2025-09-09来源:中国新闻网编辑:瑞雪

中国科学院自动化研究所科研团队近日宣布,成功研发并发布全球首个基于国产GPU算力集群的类脑脉冲大模型——“瞬悉”1.0(SpikingBrain-1.0)。该模型通过创新性的“内生复杂性”理论架构,实现了在超长序列处理、训练效率及生态构建等领域的多项突破,为人工智能发展开辟了低功耗、高效率的新路径。

与传统基于Transformer架构的大模型不同,“瞬悉”1.0以脉冲神经元为核心计算单元,首次提出大规模类脑线性基础模型架构,并完全依托国产GPU平台完成全流程训练与推理。这一创新解决了脉冲驱动下模型性能退化的难题,使其在法律文档分析、医学影像处理、高能粒子物理实验等超长序列任务中展现出显著效率优势。例如,在DNA序列分析和分子动力学轨迹模拟场景中,模型的处理速度较传统方法提升了数个数量级。

研发团队负责人李国齐研究员介绍,模型通过动态阈值脉冲化策略与混合专家模型结合,实现了超过69%的稀疏度,长序列脉冲占比仅1.85%,大幅降低了计算资源消耗。在训练阶段,模型仅需主流大模型2%的预训练数据量,即可在多任务语言理解、常识推理等任务中达到同等性能水平;推理阶段则利用脉冲神经元的事件驱动特性,将复杂度降至常数级别,显存占用不随序列长度增加而显著上升。

技术突破体现在四大核心领域:其一,模型训练复杂度为线性或近线性,显著提升长序列训练效率;其二,推理效率实现数量级提升,尤其适用于超长序列场景;其三,构建了适配国产GPU集群的完整生态,包括高效训练框架、算子库及并行策略;其四,通过多尺度稀疏机制降低能耗,为下一代神经形态芯片设计提供了理论支撑。

对比主流Transformer模型,“瞬悉”1.0的优势在于突破了序列长度对计算资源的制约。传统模型训练成本随序列长度平方级增长,推理显存占用线性增加,而“瞬悉”1.0通过脉冲神经元的内生动力学特性,将计算复杂度控制在线性范围内。研究团队已公开模型代码、测试平台及中英文技术报告,并强调该架构为构建自主可控的非Transformer生态提供了可行性范本。

据悉,该模型的理论基础源于对大脑神经元工作机制的深度模拟。研究人员揭示,现有线性注意力机制本质上是树突计算的简化形式,而“瞬悉”1.0通过建立脉冲神经元与线性注意力的数学联系,为模型复杂度与性能的同步提升指明了方向。这一成果不仅推动了类脑计算的发展,也为低功耗人工智能设备的落地应用奠定了技术基础。

阿里巴巴“通义”App升级更名“千问”,AI战略转向消费级市场新布局
根据官方消息,“千问”定位为阿里旗下最重要的大模型应用入口,其核心能力基于阿里自研的大模型体系Qwen(千问)。 分析人士指出,阿里此前在To B市场和模型研发侧拥有技术基础,但在消费端应用分发层面还未形成…

2025-11-15

Dexmal原力灵机获近10亿融资 阿里蔚来资本助力具身智能研发落地
IT之家 11 月 14 日消息,具身智能公司 Dexmal 原力灵机今日宣布完成数亿元 A+ 轮融资,阿里巴巴为独家投资方。IT之家注意到,该公司 A 轮融资由蔚来资本领投,洪泰基金、联想创投、锡创投和正…

2025-11-14

百度世界大会发布文心大模型5.0 参数量2.4万亿能力达全球领先
文心5.0基础能力全面升级,在多模态理解、指令遵循、创意写作、事实性、智能体规划与工具应用等方面表现突出,拥有强大的理解、逻辑、记忆和说服力。不同于业界多数的多模态模型采用后期融合的方式,文心5.0的技术路…

2025-11-13