网界
网络资讯 网界财经 科技人物 数据洞察 行业动态 智能出行 智能手机 数码极客 商业资讯

阿里通义千问推出Qwen2.5-Turbo,长上下文AI模型能力再升级!

2024-11-19来源:ITBEAR编辑:瑞雪

近期,阿里通义千问在其官方平台上发布了一项重大更新,正式推出了Qwen2.5-Turbo开源AI模型。这一新模型在历经数月的精心优化后,终于面向广大社区用户亮相。

Qwen2.5-Turbo的最大亮点在于其显著提升了上下文长度的处理能力。相较于之前的版本,该模型将上下文长度从12.8万个tokens大幅扩展至100万个tokens,这一改进意味着它能够处理约100万英语单词或150万汉字的文本内容,足以容纳10部完整的小说、150小时的演讲稿,或是30000行代码。

在自然语言处理(NLP)领域,大型语言模型(LLM)的上下文长度是一个至关重要的指标。它决定了模型在一次处理过程中能够考虑和生成的文本的最大长度。Qwen2.5-Turbo在这一方面的突破,无疑为其在处理长文本任务时提供了更大的优势和灵活性。

在性能表现上,Qwen2.5-Turbo同样不负众望。在1M-token的Passkey检索任务中,该模型实现了100%的准确率,而在RULER长文本评估中,其得分也高达93.1,成功超越了GPT-4和GLM4-9B-1M等业界知名模型。

为了进一步提升处理效率,Qwen2.5-Turbo还整合了稀疏注意力机制(sparse attention mechanisms)。这一机制使得模型在处理100万tokens文本时,从输入到输出第一个token的时间从4.9分钟缩短至68秒,速度提升了4.3倍。这一显著的效率提升,使得Qwen2.5-Turbo在处理长文本时更加迅速和高效。

除了性能上的提升,Qwen2.5-Turbo在经济性方面也表现出色。其处理成本保持在每百万个tokens 0.3元的水平,能够处理3.6倍于GPT-4o-mini的token数量。这一优势使得Qwen2.5-Turbo在长上下文处理解决方案中更具竞争力,成为用户们的高效、经济之选。

然而,尽管Qwen2.5-Turbo在多个基准测试中取得了优异的成绩,其团队仍然保持着清醒的头脑。他们意识到,在真实场景中的长序列任务表现可能还存在不够稳定的问题,同时大型模型的推理成本也还有进一步优化的空间。

对此,Qwen2.5-Turbo的团队承诺将继续努力,不断优化模型的人类偏好、提高推理效率,并探索更强大的长上下文模型,以满足用户们日益增长的需求和期待。

谷歌深夜发布Gemini 3.1 Pro:性能跃升成本减半,大模型竞争转向“性价比”
很多开发者已经开始用Gemini 3.1 Pro手搓各种应用,一位日本用户分享,他正使用 “Antigravity + Gemini 3.1Pro” 进行游戏开发,并感叹:“随着 Gemini 3.1 P…

2026-02-21

2025年手机市场新机发布盘点:苹果仅5款 OPPO系45款领跑安卓阵营
快科技2月21日消息,对于已经过去的2025年,你知道手机厂商一共发布了多少新机吗?近日,有博主分享了一张2025年手机厂商新机数量的统计图,OPPO以45款的新机数量成为2025年发布新机最多的厂商。 从…

2026-02-21

消息透露一加或于3月推小屏新机,一加15T有望亮相,配置亮点抢先看
IT之家 2 月 20 日消息,据博主 @数码闲聊站 2 月 18 日爆料,一加小屏新机暂定 3 月发布。 IT之家注意到,此前该博主曾爆料一加15T 手机已入网,标配 100W 快充头,是子系唯一 6.3…

2026-02-20