ollama 功能:支持网络搜索,mcp,codex

310 阅读6分钟

Ollama 现已推出全新网络搜索 API。Ollama 为个人用户提供了充足的免费网络搜索额度,若需要更高的调用频率限制,可通过 Ollama 的云服务获取。

这种网络搜索功能能够为模型补充来自网络的最新信息,从而减少模型生成内容时出现的幻觉(即生成错误或无依据内容的情况),并提高输出的准确性。

网络搜索以 REST API 的形式提供,并且在 Ollama 的 Python 和 JavaScript 库中有更深入的工具集成。这也使得像 OpenAI 的 gpt-oss 这类模型能够执行长时间运行的研究任务。

Building a search agent:

  • Thinking
  • Content
  • Tool calls

image.png

MCP Server

You can enable web search in any MCP client through Ollama's Python MCP server.

OpenAI Codex

Ollama integrates directly with OpenAI's Codex.

image.png

Cline

你提到的 Cline 项目,结合 Ollama 官方文档中的描述,可以理解为一个与 Ollama 配合使用的网络搜索工具。下面我给你做一个详细解释:


1. 什么是 Cline?

  • Cline 是一个开源的本地代理服务器,专门用于让大语言模型(LLM)能够安全、可控地访问互联网进行搜索。
  • 它本质上是一个Web 搜索工具代理,接收来自 LLM 的搜索请求,调用搜索引擎(如 Google、Bing 等)获取结果,然后将结构化的数据返回给模型。
  • Cline 由 ollama-tools 社区团队开发维护,目前托管在 GitHub: github.com/ollama-tool…

2. Cline 的工作原理

  1. Ollama 模型(或其他兼容 OpenAI API 的模型)在需要最新信息时,会调用一个“工具”接口。
  2. 这个工具接口被配置为指向 Cline 服务器
  3. Cline 服务器收到请求后,会:
    • 调用搜索引擎 API(Google、Bing 等)
    • 获取网页搜索结果
    • 对结果进行摘要、清洗和格式化
  4. Cline 将处理好的搜索结果返回给 Ollama 模型。
  5. 模型基于这些“实时信息”生成更准确的回答。

3. 为什么需要 Cline?

  • 本地模型知识截止问题:Ollama 运行的本地模型(如 Llama 3、Qwen2 等)的训练数据是固定的,无法获取最新事件、新闻、数据。
  • 网络访问能力:Cline 为模型提供了“联网”能力,让模型可以像人类一样通过搜索引擎获取最新信息。
  • 减少幻觉:有了可靠的网络来源,模型生成的内容会更准确,减少虚构信息。
  • 可控性与隐私:Cline 作为本地代理,你可以控制搜索引擎的使用方式、缓存结果、过滤内容,保护隐私。

4. Cline 与 Ollama 的集成方式

Ollama 通过 MCP(Model Control Protocol)服务器 与 Cline 集成:

  • MCP 服务器:Ollama 内置的一个协议服务,允许模型调用外部工具(如 Cline)。

  • 配置步骤

    1. 在本地运行 Cline 服务器
      cline serve
      
    2. 在 Ollama 中配置工具调用,指向 Cline 服务地址
    3. 启动支持工具调用的模型(如 llama3.1:8b-instruct-q8_0
    4. 模型会在需要时自动调用 Cline 进行网络搜索
  • 支持的模型

    • Ollama 官方支持的工具调用模型
    • 兼容 OpenAI API 的模型(通过 Ollama 的 OpenAI 兼容接口)

5. Cline 的主要特点

  • 多搜索引擎支持:Google、Bing、SerpAPI 等
  • 本地运行:保护隐私,无需将搜索请求发送到第三方云服务
  • 结构化输出:返回 JSON 格式的搜索结果,便于模型解析
  • 缓存机制:减少重复搜索,提高响应速度
  • 开源免费:基于 MIT 许可证

6. 实际应用场景

  • 实时问答:获取最新新闻、天气、股票价格
  • 研究助手:让模型进行文献检索、技术文档查找
  • 编程辅助:搜索最新的 API 文档、库版本信息
  • 市场分析:获取最新的产品信息、竞争对手动态

7. 总结

Cline 是一个为本地大语言模型提供网络搜索能力的开源代理工具,通过与 Ollama 的 MCP 服务器集成,让本地模型能够像 ChatGPT Plus 一样访问互联网,获取最新信息。

这种组合特别适合以下人群:

  • 需要本地运行模型但又希望获取实时信息的用户
  • 关注隐私安全,不想将搜索请求发送到第三方服务器的用户
  • 开发者和研究者,需要构建具备网络访问能力的 AI 应用

image.png

Goose

Goose 是一个免费的开源框架,旨在简化构建人工智能代理的过程,其扩展可以直接与 Ollama 集成。以下是对 Goose 的详细解释:

  • 功能特点:Goose 几乎可以使用任何大型语言模型作为后端智能,包括DeepSeek 以及 OpenAI、谷歌和 Anthropic 等公司的专有模型。它最初的重点是软件工程,能够自动执行耗时任务,如进行代码迁移(从 Ember 到 React、从Ruby 到 Kotlin等)、深入研究不熟悉的编码项目、将代码库从基于字段的注入转换为基于构造函数的注入、对构建命令进行性能基准测试、提高代码覆盖率、构建 API、创建 Datadog 监视器、删除或添加功能标志、为功能生成单元测试等。
  • 架构设计:Goose 采用模块化设计,允许开发人员将其集成到自己的系统中或构建自定义界面。其开放式架构还允许用户选择自己喜欢的 LLM,为不同的用例提供灵活性。
  • 与其他技术的合作:Goose 旨在与 Anthropic 的开源模型上下文协议(MCP)配合使用,MCP 是一套标准化 API,可促进与内容存储库、业务应用程序和开发环境等工具的连接。通过与 Anthropic 的合作,Goose 能够与日益壮大的工具和系统生态系统进行交互。
  • 开源特性:Goose 采用 Apache 2.0 许可证,允许用于从商业到研究的任何项目。其开源特性促进了社区驱动的创新,用户可以自行创新,无需等待官方发布功能。此外,开源特性还允许灵活地在本地或虚拟私有云中部署 Goose,有助于保护隐私和安全。

Goose 的扩展可以直接与 Ollama 集成,这意味着用户可以在使用 Ollama 运行本地语言模型的同时,利用 Goose 的功能来构建和管理人工智能代理,进一步拓展了模型的应用场景和功能。

image.png