Claude Code 有 Claude Code,Codex 有 Codex CLI,那 DeepSeek 用户用什么?答案来了:DeepSeek-TUI——第一款专为 DeepSeek V4 模型原生设计的终端编程智能体。MIT 开源,Rust 构建,国内网络友好。
DeepSeek-TUI 是什么?
DeepSeek-TUI 是由开发者 Hayden Brown 用 Rust 构建的终端编程智能体,专为 DeepSeek V4 系列模型(deepseek-v4-pro / deepseek-v4-flash)原生设计。它不是把 Claude Code 的壳子套在 DeepSeek 上,而是从工具调用协议、提示词封装到流式传输,全部针对 DeepSeek 模型做了原生优化。
核心亮点:1M Token 超长上下文 + 16 路并行子 Agent + 国内网络友好。
核心功能
文件与代码
- 文件读写、应用补丁、批量修改
- 集成 LSP 诊断(rust-analyzer、pyright、gopls、clangd 等),实时反馈错误
- FIM 编辑工具,通过 DeepSeek fill-in-the-middle 端点精准修改代码
- Vim 模态编辑(normal/insert 模式)
Shell 与 Git
- 在终端内直接运行 Shell 命令,无需切换上下文
- 完整的 Git 管理能力
- Side-Git 快照,按 turn 回滚,不污染主仓库 .git
网页搜索
内置网络搜索和页面浏览能力,写代码时可以直接查文档、查 API。
子智能体调度
支持 spawn 子 Agent 并行处理任务。RLM 模式可以扇出 1–16 个 deepseek-v4-flash 实例进行批量分析——多线程写代码的既视感。
MCP 协议支持
原生集成 Model Context Protocol 客户端,可连接外部 MCP 服务器扩展工具链。
思考模式流式输出
实时展示模型的推理链(Chain-of-Thought),看 AI 是怎么一步步分析你的代码问题的。
三种工作模式
- Plan:只读分析,AI 只看不动,适合代码审查
- Agent:交互式,每步操作需要你确认,适合日常开发
- YOLO:全自动,AI 撒手干,适合信任的项目
推理强度分级
通过 Shift+Tab 在 off → high → max 之间切换模型推理深度,灵活平衡速度与质量。v0.8.12 新增 auto 模式自动选择。
实时成本追踪
界面右下角实时显示每轮 Token 消耗、缓存命中率和预估费用。花多少钱一目了然。
其他特性
- 会话保存/恢复(checkpoint),断点续作
- 持久化任务队列,后台任务可跨重启存活
- Skills 技能系统,从 GitHub 安装社区技能包
- HTTP/SSE 运行时 API(
deepseek serve --http),可作为后端服务接入内部工具链 - 多语言 UI(英文、日文、简体中文、巴西葡萄牙语)
- 用户记忆,跨会话保留偏好设置
安装教程
方式一:npm 安装(最简单)
npm install -g deepseek-tui
方式二:Cargo 安装(不需要 Node.js)
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked
方式三:Homebrew(macOS)
brew tap Hmbown/deepseek-tui
brew install deepseek-tui
方式四:直接下载二进制
从 GitHub Releases 下载对应平台的二进制文件,放进 PATH 即可。注意需要同时下载 deepseek(执行体)和 deepseek-tui(TUI 界面),缺一不可。
方式五:Docker
docker run --rm -it \
-e DEEPSEEK_API_KEY \
-v "$PWD:/workspace" \
ghcr.io/hmbown/deepseek-tui:latest
国内用户加速
如果用 Cargo 安装,建议配置 TUNA 镜像加速:
# 设置 crates.io 镜像
mkdir -p ~/.cargo
cat >> ~/.cargo/config.toml << 'EOF'
[source.crates-io]
replace-with = "tuna"
[source.tuna]
registry = "https://mirrors.tuna.tsinghua.edu.cn/git/crates.io-index.git"
EOF
快速上手
- 1. 设置 API Key:
export DEEPSEEK_API_KEY="sk-..." - 2. 进入项目目录:
cd your-project - 3. 启动:
deepseek-tui - 4. 首次使用会提示信任工作区,按 1 或 Y 确认
- 5. 在 Composer 里输入自然语言需求,AI 自动分析并执行
- 6. 按 Tab 切换 Plan / Agent / YOLO 模式
- 7. 右下角实时查看 Token 消耗和费用
费用参考
DeepSeek-TUI 的一大优势是便宜。DeepSeek V4 的 API 价格远低于 Claude 和 GPT,配合前缀缓存(Prefix Cache)进一步降低成本。但要注意:
- 子 Agent 开多后缓存命中率下降
- 未命中 Token 价格是命中的 10 倍
- 建议关注界面右下角的实时费用显示
- 用
/compact命令压缩上下文,节省 Token
据 36Kr 测评:用 DeepSeek-TUI 跑一天的编程任务,成本不到 10 块钱人民币。
与 Claude Code 对比
- 模型:DeepSeek-TUI 用 DeepSeek V4,Claude Code 用 Claude
- 上下文:DeepSeek-TUI 1M Token,Claude Code 200K Token
- 并行子 Agent:DeepSeek-TUI 支持 1-16 路并行,Claude Code 不支持
- 思维链:DeepSeek-TUI 原生流式输出推理过程,Claude Code 不原生展示
- 成本:DeepSeek-TUI 利用 Flash 价差主动降本,Claude Code 统一计费
- 缓存:DeepSeek-TUI 前缀缓存感知压缩,Claude Code 无专门优化
- 工作区隔离:DeepSeek-TUI Side-Git 快照按 turn 回滚,Claude Code 基础 Git 集成
- 开源:DeepSeek-TUI MIT 开源,Claude Code 闭源
- 国内访问:DeepSeek-TUI 支持国内镜像和中文文档,Claude Code 需国际网络
系统要求
- Linux、macOS、Windows(含 ARM64)均可运行
- 需要 DeepSeek V4 API Key(从 DeepSeek 官网申请)
- 也支持接入 NVIDIA NIM / Fireworks / SGLang 后端
- 当前版本 v0.8.8,迭代频繁,建议保持更新
适用场景
- 大型项目分析与重构:用 1M 上下文一次性加载整个代码库
- 自动化代码审查与 Bug 修复:Plan 模式扫描,Agent/YOLO 模式批量修复
- 文档生成与维护:根据代码变更自动更新文档
- CI 清理与依赖更新:持久化任务队列安排周期性任务
- 批量并行推理:RLM 同时分析多个文件或执行多种测试策略
- 无头自动化工作流:通过
deepseek serve --http接入内部工具链
总结
DeepSeek-TUI 是目前最懂 DeepSeek 模型的终端编程智能体。1M Token 超长上下文、16 路并行子 Agent、MIT 开源、国内网络友好——每一条都踩在国内开发者的痛点上。
如果你用 DeepSeek 写代码,这工具必装。如果你用 Claude Code 觉得太贵,也可以试试这个——成本可能只有十分之一。