会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 苹果 M3 Ultra + 双英伟达 DGX Spark 并联,AI 性能提升 2.8 倍!

苹果 M3 Ultra + 双英伟达 DGX Spark 并联,AI 性能提升 2.8 倍

时间:2025-10-27 18:41:59 来源:西安市某某餐饮管理培训中心 作者:焦点 阅读:639次

IT之家 10 月 17 日消息,苹果EXO Labs 昨日展示了其“分布式推理”新成果,双英解决了被部分网友戏称为“世纪难题”的伟达晋城市某某医疗设备运营部选择问题 —— 买 AI 小主机究竟是买苹果 Mac Studio 还是买英伟达 DGX Spark?

如图所示,EXO Labs 同时使用了两台 NVIDIA DGX Spark 与一台搭载 M3 Ultra 芯片的并联倍 Mac Studio,在 AI 大语言模型推理测试中取得 2.8 倍性能提升。提升


该成果基于 EXO Labs 的苹果开源项目 EXO,该框架旨在让大语言模型(LLM)能够高效运行于不同硬件的双英混合环境中。

与传统仅依赖单一 GPU 或加速器的伟达推理方式不同,EXO 可将工作负载自动分配到多种设备上,并联倍使台式机、提升笔记本、苹果晋城市某某医疗设备运营部服务器甚至平板电脑与智能手机组成类似 WiFi Mesh 网络的双英“AI Mesh”。

DGX Spark 与 M3 Ultra 的伟达互补组合

正如 EXO 所述,3999 美元(IT之家注:现汇率约合 28505 元人民币)的并联倍 DGX Spark 侧重计算性能,而 5599 美元(现汇率约合 39910 元人民币) Mac Studio 则在数据带宽上更具优势。提升在这里,EXO 直接将两台 DGX Spark 与一台 Mac Studio 组合成统一的 AI 系统。


大型语言模型的推理过程通常分为两个阶段:

  • 预填充(prefill)阶段:模型读取和处理输入提示,这一阶段主要受计算性能限制;
  • 解码(decode)阶段:模型逐个生成新词元(token),此过程更依赖内存带宽。


EXO 的方案是将两阶段分配给不同设备执行:

DGX Spark 负责计算密集的预填充任务,而 M3 Ultra 负责带宽敏感的解码任务。系统通过逐层传输模型的内部数据(称为 KV 缓存),实现两台设备的同时工作,而非依次等待。

在使用 Meta Llama-3.1 8B 模型进行的基准测试中,该混合架构相较单独使用 Mac Studio,推理性能提升 2.8 倍。测试中 DGX Spark 的预填充速度比 Mac Studio 快 3.8 倍,而 Mac Studio 的生成速度又比 DGX Spark 快 3.4 倍,实现了性能互补。


“分布式推理”助力低成本扩展 AI 算力

EXO 的实验展示了一种不同于传统单机加速的 AI 扩展思路。未来 AI 性能的提升,或不再依赖单一大型加速器,而是通过更智能的硬件协同实现整体算力的提升。

类似的理念也出现在 NVIDIA 自家的新一代 Rubin CPX 平台设计中:计算密集型的上下文构建由 Rubin CPX 处理器完成,而具有高带宽 HBM3e 内存的标准 Rubin 芯片负责解码阶段,与 EXO 在现成硬件上实现的原理一致。

EXO 1.0 仍处早期阶段

EXO 当前的早期访问版本 1.0 仍属实验性质,尚未全面公开。现有的开源版本 0.0.15-alpha 发布于 2025 年 3 月,后续版本计划引入自动调度、KV 流式传输和异构硬件优化功能。

目前 EXO 仍是研究级工具,尚不适合普通消费者直接使用,但其演示结果表明:通过智能调度不同硬件资源,分布式推理架构能在无需大型数据中心的前提下显著提升 AI 性能。

(责任编辑:休闲)

推荐内容
  • 有纯电有增程 极狐全新阿尔法T5预售价12.38万起
  • 美媒:科比传记电影正在筹备中
  • 我国成功发射卫星互联网低轨卫星
  • 俄军在缴获坦克上插美国国旗行进
  • 保利集团,严正声明!
  • 秋季学期教师“拒班”的背后,是丰满的理想与如履薄冰的现实碰撞