Skip to content
星际流动

MacBook Pro M5 Pro/Max 发布——LLM 推理速度提升 4 倍

算力硬件 7.8 分
原文: Apple Newsroom

Apple 正式推出搭载 M5 Pro 和 M5 Max 芯片的新款 MacBook Pro,在本地 AI 推理能力上实现重大飞跃。

AI 性能提升

对本地 LLM 的意义

对于 ollama、llama.cpp 等本地模型用户而言,这是里程碑式的升级。以往在 Mac 上运行 70B 参数量级模型还比较吃力,新 M5 Max 配合统一内存大幅改善这一情况。

本地 AI 推理的竞赛正在从数据中心延伸到个人设备端。Apple Silicon 的持续进化,让「边缘 LLM」成为越来越主流的选项。


标签: