一个搞音乐的,用 AI 写了款编程工具DeepSeek TUI,本文就是它写的

0 阅读10分钟

这篇文章,从选题、大纲、到每一个字,都是用 DeepSeek TUI 写的。

0. 一个更让人意外的故事

在聊这个工具之前,先说它的作者。

DeepSeek TUI 的缔造者是一位叫 Hunter Bown 的独立开发者——没学过计算机,本职搞音乐。

一个非科班的音乐家,用 AI 写了个给 AI 用的编程工具。

听起来像段子,但这是真事。短短几天,项目 Star 数飙到 12000+,今天还登顶了 GitHub Trending 榜首。

这事最妙的地方在于:Hunter Bown 自己就是 DeepSeek TUI 的最佳用户画像——一个有想法、有痛点、但不想被工具链复杂度劝退的人。他用 AI 补齐了自己的技能缺口,然后把成果开源给了所有人。

如果说 Claude Code 是 Anthropic 这个专业团队用专业工具链(TypeScript + React + Ink)锻造的精致兵器,那 DeepSeek TUI 就是一个音乐家用 Rust 和 AI 对话攒出来的「野路子」——但它跑得飞快,做得漂亮。

image.png

好了,故事讲完,下面说正事。


1. DeepSeek TUI 是什么

DeepSeek TUI 是一个完全独立的终端原生编程智能体,由 Rust 从头构建,不依赖 Node.js、不依赖 Python,甚至不依赖任何第三方 AI 框架。

DeepSeek TUI 是一个完全运行在终端里的编程智能体。它让 DeepSeek V4 模型直接访问你的工作区:读写文件、运行 Shell 命令、搜索浏览网页、管理 Git、调度子智能体——全部通过快速、键盘驱动的 TUI 完成。

1.png

官方 README 的第一句话就说得很清楚:

"面向 DeepSeek V4 的终端原生编程智能体:100 万 token 上下文、思考模式流式推理、前缀缓存感知。自包含 Rust 二进制发布——开箱即带 MCP 客户端、沙箱和持久化任务队列。"

几个关键信息:

  • 自包含 Rust 二进制:不依赖 Node.js 或 Python 运行时
  • 面向 DeepSeek V4 构建:原生支持 deepseek-v4-prodeepseek-v4-flash
  • 100 万 token 上下文:原生超大上下文窗口
  • 思考模式流式输出:可以实时观察模型推理过程

它的定位和 Claude Code 是同一类产品——终端原生编程智能体,但技术路线完全不同:

对比维度Claude CodeDeepSeek TUI
实现语言TypeScript (Node.js)Rust
UI 框架React + Inkratatui (Rust TUI)
运行时依赖Node.js、npm无(单一二进制)
底层模型Claude Sonnet/OpusDeepSeek V4 Flash/Pro
API 接入Anthropic 官方 APIDeepSeek 官方 API
开源协议闭源(源码泄露)MIT 开源

2. 核心功能一览

DeepSeek TUI 的功能矩阵非常完整,下面逐项展开。

2.1 100 万 Token 上下文 + 智能压缩

DeepSeek V4 原生支持 100 万 token 上下文窗口。当上下文接近上限时,TUI 会自动触发智能压缩——先机械修剪旧的工具结果,再进行付费摘要。同时支持前缀缓存感知,缓存命中的 token 成本约降低 99%。

2.png

2.2 思考模式流式输出

这是 DeepSeek TUI 最独特的体验之一:你可以实时观察模型在解决问题时的思维链展开。不是冷冰冰地等结果,而是看到它一步步分析、推理、排除错误选项——就像看一个经验丰富的工程师在调试问题时的心路历程。

3.png

2.3 原生 RLM 并行推理

RLM(Recursive Language Model)是 DeepSeek TUI 最"值钱"的设计——让一个主模型同时指挥一群更便宜的子 AI 干活。

具体来说:主模型(通常是 Pro)负责统筹全局、拆解任务,然后一次性并发调度 1-16 个 deepseek-v4-flash 子任务,分头去干各自的话,最后汇总成稿。

举个例子,让它给整个项目写文档。

主模型先扫一眼目录结构,把项目切成十几个模块,然后 16 个 Flash 子任务同时启动——一个去读路由层,一个去翻数据模型,一个去撸工具函数——全部并行推进。跑完之后,主模型把结果收回来,串成一份完整的项目文档。

原本 Pro 自己串行干,一个个模块读下来,可能要折腾一两个小时。现在十几分钟收工。

而且账单还砍掉一大半——Flash 的输出价格只有 Pro 的三分之一,16 个并发的总成本说不定比 Pro 单打独斗还低。

这才是 RLM 被"玩明白"的方式:不是把大模型当万能工人,而是让它当工头。

2.4 三种交互模式,从严到松

操作模式分成了三档,从左到右,控制权逐步下放:

Plan 🔍 — 只读调查

只读探索。模型可以读文件、搜代码、提方案,但不执行任何写操作。适合接手新项目时先摸清结构,或者让别人帮你审一下架构设计——放心,不会乱动你的代码。

Agent 🤖 — 每步确认

默认模式,也是日常最常用的。模型可以读写文件、跑命令,但每一步写操作都要你点头。AI 提议,你来拍板——效率和安全之间的平衡点。

YOLO ⚡ — 可信工作区自动批准

全自动放行,模型自主执行所有工具调用,不用等你审批。适合在可信工作区跑 CI/CD 流水线、批量重构等场景。

三种模式可以在 TUI 内通过快捷键随时切换,不用退出会话。

2.5 推理强度调节

Shift+Tab 可以在 off → high → max 三档之间切换推理强度:

  • off:快速响应,适合简单查询
  • high:标准推理,适合日常编程
  • max:深度推理,适合复杂架构设计和疑难 Bug 排查

2.6 工作区回滚(Side-Git)

DeepSeek TUI 通过独立的 side-git 记录每轮对话前后的文件快照,支持 /restorerevert_turn 命令回滚到任意历史状态。这套机制完全不影响项目自己的 .git 目录,不用担心污染 Git 历史。

2.7 持久化任务队列

后台任务在重启后仍然存在,支持计划任务长时间运行的操作。这意味着你可以让 DeepSeek TUI 在后台持续工作,关掉终端也不会丢失进度。

2.8 完整工具集

类别工具
文件操作读写、编辑、apply-patch、目录浏览
Shell 执行前台/后台命令、长任务轮询
Git 集成status、diff、log、blame、show
网页搜索、浏览、URL 抓取
子智能体spawn 多个并行子任务
MCP连接 Model Context Protocol 服务器扩展工具
RLM递归语言模型批量并行推理

2.9 LSP 诊断

每次编辑后,DeepSeek TUI 自动通过 rust-analyzer、pyright、typescript-language-server、gopls、clangd 等 LSP 服务器提供内联错误和警告。这意味着你改完代码后,不需要切到 IDE 就能立刻看到有没有语法错误或类型问题。

2.10 技能系统

支持通过 GitHub 安装可组合的技能包(Skills),无需后端服务。每个技能是一个包含 SKILL.md 的目录,写清楚触发条件和指令,智能体就能在合适的场景自动加载。

---
name: my-skill
description: 当 DeepSeek 需要遵循我的自定义工作流时使用这个技能。
---

# My Skill
这里写给智能体的指令。

常用命令:/skills(列出)、/skill <name>(激活)、/skill install github:<owner>/<repo>(安装社区技能)。

2.11 多语言 UI

支持 en、ja、zh-Hans、pt-BR 四种语言,且 UI 语言与模型输出语言相互独立。在 TUI 内输入 /config → 选择 Edit locale → 输入 zh-Hans 即可切换为简体中文界面。

4.png


3. 安装指南

deepseek 是自包含 Rust 二进制,运行时不依赖 Node.js 或 Python。四种安装方式选一个:

方式一:npm(已有 Node 的最方便方式)

npm install -g deepseek-tui

npm 包只是一个下载器,会从 GitHub Releases 拉取对应平台的预编译二进制,并不会让 deepseek 本身依赖 Node 运行时。

中国大陆访问较慢时可加镜像:

npm install -g deepseek-tui --registry=https://registry.npmmirror.com

方式二:Cargo(Rust 用户首选)

cargo install deepseek-tui-cli --locked   # 提供 `deepseek` 入口
cargo install deepseek-tui     --locked   # 提供 `deepseek-tui` TUI 二进制

国内用户可配置清华镜像加速:

# ~/.cargo/config.toml
[source.crates-io]
replace-with = "tuna"

[source.tuna]
registry = "sparse+https://mirrors.tuna.tsinghua.edu.cn/crates.io-index/"

方式三:Homebrew(macOS)

brew tap Hmbown/deepseek-tui
brew install deepseek-tui

方式四:直接下载预编译二进制

无需任何工具链,从 GitHub Releases 下载对应平台的二进制文件即可。

覆盖平台:Linux x64/ARM64、macOS x64/ARM64、Windows x64

5.png


4. 快速上手

4.1 配置 API Key

首次启动时会提示输入 DeepSeek API Key,密钥保存到 ~/.deepseek/config.toml

也可以提前配置:

# 方式一:命令行配置
deepseek auth set --provider deepseek

# 方式二:环境变量
export DEEPSEEK_API_KEY="YOUR_KEY"
deepseek

轮换或移除密钥:deepseek auth clear --provider deepseek

4.2 启动

deepseek                    # 交互式 TUI
deepseek "解释这个函数"      # 一次性提示
deepseek --yolo             # 自动批准模式

12.png

4.3 常用命令速查

命令功能
deepseek启动交互式 TUI
deepseek "task"执行一次性任务
deepseek --model deepseek-v4-flash指定模型
deepseek --yolo自动批准工具调用
deepseek doctor检查配置和连接
deepseek models列出可用 API 模型
deepseek sessions列出已保存会话
deepseek resume --last恢复最近会话
deepseek resume <ID>按 UUID 恢复指定会话
deepseek fork <ID>在指定轮次分叉会话
deepseek serve --http启动 HTTP/SSE API 服务
deepseek pr <N>获取 PR 并预填审查提示
deepseek update检查并更新二进制

4.4 常用快捷键

按键功能
Tab补全 /@;排队草稿;切换模式
Shift+Tab切换推理强度:off → high → max
F1可搜索帮助面板
Esc返回 / 关闭
Ctrl+K命令面板
Ctrl+R恢复旧会话
Alt+R搜索提示历史和恢复草稿
Ctrl+S暂存当前草稿
@path在输入框中附加文件或目录上下文

5. 模型与价格

模型上下文输入(缓存命中)输入(缓存未命中)输出
deepseek-v4-pro1M$0.003625 / 1M*$0.435 / 1M*$0.87 / 1M*
deepseek-v4-flash1M$0.0028 / 1M$0.14 / 1M$0.28 / 1M

DeepSeek V4 Pro 当前享受限时 75% 折扣,有效期至 2026 年 5 月 31 日。折扣结束后价格回退到基础定价。

一个直观的对比:Flash 的输出价格(0.28/1M)只有Pro0.28/1M)只有 Pro(0.87/1M)的三分之一左右,输入价格更是低到了 $0.14/1M。写一篇万字文章消耗的 token 成本不超过几美分,日常编程辅助几乎零感知。

DeepSeek TUI 还内置了实时成本跟踪功能:按轮次和会话统计 token 用量与成本估算,包含缓存命中/未命中明细,让你对每一分钱花在哪了如指掌。


6. 更多能力

6.1 MCP 协议支持

通过 Model Context Protocol 连接外部工具和数据源,扩展智能体的能力边界。支持 deepseek mcp list 查看已配置服务器、deepseek mcp validate 校验连接。

6.2 HTTP/SSE 运行时 API

deepseek serve --http

启动无界面智能体服务,适用于 CI/CD 流水线、自动化脚本等场景。

6.3 其他模型提供方

除了 DeepSeek 官方 API,还支持多种提供方:

# NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_KEY"
deepseek --provider nvidia-nim

# Fireworks
deepseek --provider fireworks --model deepseek-v4-pro

# 自托管 (SGLang / vLLM / Ollama)
deepseek --provider ollama --model deepseek-coder:1.3b

6.4 会话保存与恢复

长任务支持断点续作——关闭终端、重启电脑后,用 deepseek resume --last 即可恢复之前的会话,进度不丢失。


7. 总结

DeepSeek TUI 不是 Claude Code 的"山寨版",而是一个技术路线完全不同的独立产品:

  • Rust 原生,单一二进制,零运行时依赖
  • 100 万 token 上下文,思考模式流式推理
  • MIT 开源,社区驱动,贡献者超过 30 人
  • 三种模式(Plan / Agent / YOLO),覆盖从只读审查到全自动执行
  • RLM 并行推理工作区回滚持久化任务队列等高阶能力

它正在以开源的方式,重新定义「终端原生编程智能体」这个品类。

如果你已经受够了 Node.js 依赖链的臃肿、API 代理的不稳定、或者单纯想在终端里拥有一个真正趁手的 AI 编程搭档——DeepSeek TUI 值得你花 3 分钟装起来试一试。


相关链接