快讯

Ollama发布0.20.6,强化Gemma 4工具调用与多终端调用体验

Ollama团队宣布推出0.20.6版本,重点优化了Gemma 4的工具调用功能。该公司指出,这是对Gemma 4系列工具调用稳定性的又一次改进,后续版本还会继续迭代该模型的表现。

官方同时介绍了在Ollama云环境中的新用法:例如通过ollama run gemma4:31b-cloud直接调用云端310亿参数版本,配合OpenClaw使用ollama launch openclaw --model gemma4:31b-cloud来构建本地agent工作流,再者也可与Claude Code联动,执行ollama launch claude --model gemma4:31b-cloud,让高质量代码辅助与Gemma 4的工具调用能力在统一接口下运行。

来源:公开信息

ABAB AI 解读

这次更新真正重要的是“把Gemma 4的工具调用,变成可被大众工具链可靠调用的基础设施”。之前开发者在llama.cpp、OpenClaw、OpenCode等栈中频繁遇到Gemma 4工具调用断裂或结构不兼容的问题,说明“能输出tool_call并不等于能被下游系统稳定消费”。Ollama通过0.20.6和对gemma4:31b-cloud的标准化,让同一套工具调用协议可以在多种本地/云端工作流中被复用,这正是“跨平台agent生态”形成的第一步。

更深层看,这标志着本地大模型平台的竞争焦点,正从“单点模型性能”转向“集成与工作流体验”。Gemma 4在编码与多模态方面本身已具备较强能力,但对普通用户而言,真正的价值,是“能不能用一行命令接入本地IDE、聊天Agent和自动化脚本”。Ollama在这种“一命令开箱”体验上的持续加码,实际上是在把“本地大模型平台”从开发者工具升级为“通用AI执行层”,而不仅仅是推理引擎。

从长期结构看,当Gemma 4、Claude、OpenClaw等在Ollama上被“平滑封装”为可交换的工具,意味着未来的“AI工程栈”很可能围绕“llm + 工具调用标准 + 本地/云端执行层”展开分层竞争。Ollama的角色,就是在这条价值链中占据“模型路由器”与“本地工作流容器”的位置:谁先在工具调用、上下文、模型切换这三个维度上做到稳定、统一、无感,谁就更有可能成为下一代AI用户的“默认执行环境”。

AI

来源

·
·
1 分钟阅读
·11 天前
分享: