大模型应用,从 Chat 到 Integration

74 阅读8分钟

时效性是新闻(自媒体)最基本的特征之一,现在还能蹭到 DeepSeek 的热度吗?

本文介绍了大模型的三种使用方式,无论你是个人用户、企业私域部署、垂直领域应用,还是个人开发者,或许本文都可以给你提供一些视野上的帮助!

一、DeepSeek 为什么出圈?

2022 年美国 OpenAI 公司推出 ChatGPT (基于 GPT-3.5),对话式 AI 引发全球热潮。

ChatGPT 在发布后仅 5 天便突破 100 万用户,两个月内达到 1 亿月活用户,成为历史上用户增长最快的消费级应用(此前纪录由 TikTok 保持,耗时约 9 个月)。

2025 年中国 深度求索 公司发布 DeepSeek R1,大模型再次引发中国乃至全球热潮。

上线仅 20 天,日活跃用户突破 2000 万,成为史上用户增长速度最快的消费级应用程序之一;1 月累计用户达 1.25 亿,其中 80% 的增长集中在最后 7 天。

ChatGPT 完全是颠覆性的科技创新,极大地震撼了人们对 AI 的理解,因此引发全球热潮理所应当。领先的追随者如 Meta 发布 llama、阿里巴巴发布 Q-wen,也非常出色,但并不是那么出圈。

deepseek官网.png

至此是否好奇:为什么 DeepSeek 在 ChatGPT 之后再次掀起了大模型的热度?据笔者所了解,DeepSeek 能出圈的特点包括:

  • 性能强劲:支持深度思考 R1,性能比肩行业 Top
  • 技术突破:绕过了英伟达的 Cuda
  • 菩萨心肠:不仅开源,而且是非常宽松的 Apache License V2 许可证
  • 非常便宜:帮家人们把价格打了下来

二、从 Chat 到 Integeration

大模型的对话式 AI 能力在数年已经得到了极大的推广,如何优雅地使用 DeepSeek(或大模型)的能力,并进行领域应用值得盘一盘了。

从 Awesome-DeepSeek-Integration[1] 摘录一些,以及我自己了解到的一些集成软件。

Zotero:Zotero 是一款免费且易于使用的文献管理工具,旨在帮助您收集、整理、注释、引用和分享研究成果。

牛马研究生必备,使用大模型实现论文翻译与总结。

zotero.png

Typral:超快的 AI 写作助手。

需要经常写材料的公务员、国企员工可以关注体验一下,把大白话写得优雅。

typral.png

Cursor:AI 代码编辑器。

提供免费和企业版

官网做得挺像那么回事的,我偶尔能刷到一些博主说多好用,但我体验后也不觉得有多惊艳,可能是打开方式不对。程序员朋友可以鼓捣下。

我理解是 Cursor = VScode + DeepSeek(或其他大模型),我其实更喜欢用 Jetbrains + MarsCode(或腾讯代码助手)。

cursor.png

Warp:基于 Rust 的,由 AI 构建的终端工具。

使用自然语言执行终端 terminal 命令,我觉得这个 AI 工具不太能用得到,常用的命令早就背会了。

warp官网.png

Chat2DB:AI 驱动的数据库工具和 SQL 客户端。

Text to SQL,使用自然语言描述的方式编写 SQL。这比基于大模型的 SQL 评审助手还要超前一些!

chat2db.png

CoW(ChatGPT On Wechat) :基于大模型搭建的聊天机器人,同时支持微信公众号、企业微信应用、飞书等接入。

宽松的 MIT 协议,看起来是开源社区程序员的为爱发电,我会试着部署下。

CoW.png

Jetbrains 插件 AI Git Commit: 基于 Git Commit 提交内容自动生成提交信息。

每次在使用 Git 提交代码的时候不知道写什么信息时候,可以考虑体验下。


三、DeepSeek 的三种打开方式

本文介绍三种方式,根据实际应用情况酌情选用。

3.1 DeepSeek 官方网站/手机App

最基本且使用成本最低的方式,电脑端使用浏览器(推荐 Chrome )登录 DeepSeek 官网[2] 访问。手机端则可以在应用市场下载 App。

因为 DeepSeek 话题热度实在太高,官方的访问量巨大,DeepSeek 官方服务器承受如此高的并发量有点吃力,不少网友反馈官方偶然会发生卡顿。

deepseek服务器繁忙.png

此外,因为宽松的 Apache License V2 许可证,任何个人或商业公司都可以轻松实施“拿来主义”,并独立部署,出现了不少第三方能力提供方,可以代餐。这里随便列举一些:

公司访问地址平台
中国移动云盘移动云盘app移动端
超算互联网chat.scnet.cn/#/homeWeb 网页
cozecoze.cnWeb 网页
秘塔AI搜索metaso.cn/Web 网页

笔者认为,简单的 chat 使用 deepseek 官方 Web 或 App,想要实现流程编排或智能体构建能力使用 Coze[3]。


3.2 Ollama 本地部署

绝大多数情况下,使用 Web 页面或者手机 App 来享用 DeepSeek 交互式 AI 足够满足需要。

特别地,当涉及到一些企业隐私信息时,往往需要慎重考虑,避免将公司机密泄漏到互联网,毕竟官网访问是联网的,数据需要传输到能力提供方的服务器处理。

或者,出于好奇,你想在本地体验部署 DeepSeek 等各类大模型。

Ollama[4] 满足你的个性化需求,支持在本地快速部署任何开源模型。

Ollama 简介

Ollama 简介由 DeepSeek R1 生成

Ollama 是一款开源工具,专注于在本地计算机上运行大型语言模型(LLM) ,无需依赖云端服务。它简化了模型的下载、部署和管理流程,支持多种主流模型,适合开发者、研究人员及普通用户探索本地化 AI 应用。

使用体验与 docker 相似

Ollama 核心特点:

  • 本地运行
  • 跨平台支持
  • 模型管理
  • 开发者友好
  • 自定义模型

ollama-download.png

流程概述

  1. 下载 Ollama 客户端
  2. 选择并拉取 DeepSeek 大模型
  3. 开始体验:
    • 终端访问
    • 可视化 WebUI 访问
    • Restful API 访问

下面两小节介绍 终端访问可视化WebUI访问,将 Restful API 访问 划分在下一章节。

终端访问

程序员对终端非常熟悉,但普通的电脑用户可能真不习惯这个黑框框,输入命令的方式来执行服务,好在 Ollama 做的实在太方便,也不需要什么门槛。

ollama-terminal.png

去官网 Models 页面 https://ollama.com/library/deepseek-r1 拉取开源大模型 DeepSeek R1:

拉个蒸馏的 32b 体验足够了,满血版 671b 的实在太大。

ollama run deepseek-r1:32b

在终端中输入 ollama 会提示相关命令,相当于手册。

Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

可视化 Web UI

Ollama 可以通过 Restful API 提供开放能力,自然可以基于此开发 WebUI,去 GitHub 上也容易找到 Open-WebUI[5] ,按照相关的手册,部署即可。

ollama-WebUI.png


2.3 API 开放能力

使用大模型能力开发领域应用,或是内部提效,或是创新创业,均需要将 DeepSeek 集成到应用中,此时需要使用 DeepSeek 的开放能力,代码级可控

Ollama Restful API

Ollama 支持 Restful API 访问,即提供了开放能力,将 Ollama 部署到具备公网访问的云服务器上,根据开发者文档 https://github.com/ollama/ollama/blob/main/docs/api.md 进行能力访问。

开发者作为技术探索,做一些预言项目或者玩具项目,可以低成本实现,也不必拉 671B 的大模型,拉个 1.5B 的模型把项目流程打通,在生产环境用 671B 即可。

ollama-api.png

商业 API

云服务器厂商售卖 API,客户按需收费(Token 使用量),作为中小公司非常适合,但数据会上传到互联网。

我充值了20元,调用下试试,非常方便。

deepseek充值.png

创建API Key

apikeys.png

使用 Python 调用

deepseek-api.png

每次调用都会消耗Token,即费用。

deepseek-use.png

为了节省开支,开发环境推荐使用 Ollama Restful API,免费使用。


DeepSeek 第三方服务提供商。

阿里云:

aliyun-deepseek.png

中国移动,价格感人:

中国移动deepseek推理.png

中国电信天翼云:

天翼云deepseek.png


三、总结

作为普通用户,使用 DeepSeek 官网或 App 足够,不太需要关注乱七八糟的各类网站,除非深度求索打算像百度一样付费。

主动去探索基于大模型的领域集成应用,往往比通用大模型有更好的体验,或许能为你当下的工作提效。

作为个人开发者、小中型企业,或是大企业的预研项目,笔者给出以下建议。

开发环境组合拳,注重端到端能力实现:

工具或方法用途
服务器 $为大模型应用提供计算服务
Ollama大模型部署底座
DeepSeek开源大模型,开发环境拉取 32b 足够
Ollama Restful API开放能力,使用 Python 等编程语言访问
RAG检索增强生成,大模型应用方法论

生产环境组合拳,注重大模型性能:

工具或方法用途
DeepSeek API $$$商业版开放能力,使用 Python 等编程语言访问
RAG检索增强生成,大模型应用方法论

参考资料

  1. Awesome DeepSeek Integration: github.com/deepseek-ai…

  2. DeepSeek 官方网站: www.deepseek.com/

  3. 扣子,新一代 AI 应用开发平台: www.coze.cn/home

  4. Ollama 官方网站: ollama.com

  5. Open WebUI GitHub 仓库: github.com/open-webui/…