一台被称为“全球最小超算”的设备NVIDIA DGX Spark,正引发科技圈的广泛关注。这款面向科研人员、数据科学家和学生的个人AI超级计算机,凭借其128GB内存和2000亿参数处理能力,试图在桌面端实现高性能AI计算。然而,其3万元的售价与实际性能表现,成为讨论焦点。
根据多方评测,DGX Spark在轻量级模型中表现优异,甚至能稳定运行1200亿参数的大模型,整体性能介于RTX 5070与RTX 5070 Ti之间。但其核心短板在于273GB/s的内存带宽限制——这一数据传输速度远低于高端显卡的1800GB/s,导致解码阶段(生成答案)效率低下。有用户形容其体验为“脑子转得快但说话结巴”,首字响应迅速但后续输出卡顿。
为突破带宽瓶颈,极客团队EXO Lab尝试将DGX Spark与Mac Studio M3 Ultra(带宽819GB/s)联动,通过“预填充-解码分离”技术,将推理速度提升2.8倍。然而,这种方案需同时使用两台DGX Spark和一台Mac Studio,总成本接近10万元,性价比争议随之而来。有评论指出:“用十万设备跑本地模型,未免过于奢侈。”
尽管存在缺陷,DGX Spark的128GB统一内存仍为其拓展了应用场景。官方提供超过20种开箱即用的玩法,涵盖视频生成、多智能体助手搭建等。例如,用户可利用ComfyUI框架运行阿里Wan 2.2视频模型,或通过LM Studio部署本地大模型。实测中,设备在视频生成时温度达60-70摄氏度仍保持静音,内部结构设计获博主称赞“工整有序”。
在对比测试中,DGX Spark的Prefill阶段(阅读理解)优势明显,但Decode阶段(生成答案)表现平平。以DeepSeek R1模型为例,其平均TPS(每秒生成词元数)为33.1,仅略高于Mac Mini M4 Pro的17.8。评测团队指出,批次大小对性能影响显著:当批次设为32时,DGX Spark的解码速度可飙升至370词元/秒,但对普通用户而言,如此高负载场景并不常见。


