Apple 正式推出搭载 M5 Pro 和 M5 Max 芯片的新款 MacBook Pro,在本地 AI 推理能力上实现重大飞跃。
AI 性能提升
- LLM 推理速度:M5 Pro 和 M5 Max 比上代快 4 倍(LLM prompt processing)
- AI 图像生成:速度提升 8 倍
- Neural Accelerator 升级:GPU 架构每核均配备神经加速单元
对本地 LLM 的意义
对于 ollama、llama.cpp 等本地模型用户而言,这是里程碑式的升级。以往在 Mac 上运行 70B 参数量级模型还比较吃力,新 M5 Max 配合统一内存大幅改善这一情况。
本地 AI 推理的竞赛正在从数据中心延伸到个人设备端。Apple Silicon 的持续进化,让「边缘 LLM」成为越来越主流的选项。