来源:开源中国 · 科技 · 东亚 · 05-11 10:44

在 24GB M4 MacBook 上跑本地大模型:Qwen 3.5-9B 实测 40 tokens/s,支持工具调用

阅读原文 →

AI 摘要

这条新闻显示「在 24GB M4 MacBook 上跑本地大模型:Qwen 3.5-9B 实测 40 tokens/s,支持工具调用」正在成为 科技产业 方向的新信号,值得结合 东亚 与 科技 后续动态继续观察。

关键点

  • 核心事件:在 24GB M4 MacBook 上跑本地大模型:Qwen 3.5-9B 实测 40 tokens/s,支持工具调用
  • 所属领域:科技 / 科技产业
  • 观察维度:东亚、开源中国 后续报道与同类事件是否继续增加

影响分析

短期可能影响产品路线、开发者生态与产业链预期;若同类新闻继续增加,可能形成新的科技主题。

情绪:中性偏积极 · 相关:开源中国 / 科技 / 东亚 / 科技产业 · 模板回退

开发者 jola 分享了自己在 M4 MacBook Pro(24GB 内存) 上运行本地大语言模型的完整实践经验。在经历了多次模型选型、量化配置和前端适配的试错后,他最终搭建出了一套「不需要联网、能在笔记本上流畅运行」的本地 AI 工作流——核心模型是 Qwen 3.5-9B(Q4_K_S 量化版),在 LM Studio 中跑出了约 40 tokens/秒 的生成...

阅读原文 →