首页/热门开源/正文

AI Info Hub · 用更短的时间看懂真正值得关注的 AI 更新

热门开源2026年4月14日 22:42阅读 0分享 0原始来源

Ollama 发布 v0.20.7,修复 Gemma 思考关闭场景质量问题并升级 ROCm 7.2.1

Ollama 在检索窗口内发布 v0.20.7,重点修复 gemma:e2b 和 gemma:e4b 在关闭 thinking 时的质量问题,同时更新 Linux 版 ROCm 到 7.2.1。

Ollama 在这次 v0.20.7 补丁版里没有堆很多花活,更新点很克制,核心是两件事,一是修复 gemma:e2b 和 gemma:e4b 在关闭 thinking 时的输出质量问题,二是把 Linux 平台的 ROCm 升到 7.2.1。前者对应的是不少本地推理用户越来越常见的低延迟用法,后者则直接关系到 AMD 显卡栈的兼容性和可用性。 这类补丁之所以值得单独看,不是因为版本号大,而是因为它瞄准的都是“日常真会踩到”的问题。很多人把本地模型接进自动化流程、代理链路或者轻交互场景时,都会主动关闭更重的思考模式来换速度和成本,如果这一步会让 Gemma 系列模型明显掉质量,实际可用性就会打折。Ollama 把这个坑尽快补上,等于是在给本地部署用户兜底。 同时,ROCm 版本前进也说明本地 AI 生态还在继续补齐对非 NVIDIA 硬件的支持。对 AMD 用户来说,这种更新未必像“上新模型”那样容易刷屏,但它会直接影响部署是否顺手、推理是否稳定。开源模型运行层真正成熟,靠的往往就是这种不显眼但能少踩坑的版本迭代。