DeepSeek-TUI:专为 DeepSeek V4 设计的终端编程智能体,不到 10 块钱跑一天——墨涩网

Claude Code 有 Claude Code,Codex 有 Codex CLI,那 DeepSeek 用户用什么?答案来了:DeepSeek-TUI——第一款专为 DeepSeek V4 模型原生设计的终端编程智能体。MIT 开源,Rust 构建,国内网络友好。

DeepSeek-TUI 是什么?

DeepSeek-TUI 是由开发者 Hayden Brown 用 Rust 构建的终端编程智能体,专为 DeepSeek V4 系列模型(deepseek-v4-pro / deepseek-v4-flash)原生设计。它不是把 Claude Code 的壳子套在 DeepSeek 上,而是从工具调用协议、提示词封装到流式传输,全部针对 DeepSeek 模型做了原生优化。

核心亮点:1M Token 超长上下文 + 16 路并行子 Agent + 国内网络友好

核心功能

文件与代码

  • 文件读写、应用补丁、批量修改
  • 集成 LSP 诊断(rust-analyzer、pyright、gopls、clangd 等),实时反馈错误
  • FIM 编辑工具,通过 DeepSeek fill-in-the-middle 端点精准修改代码
  • Vim 模态编辑(normal/insert 模式)

Shell 与 Git

  • 在终端内直接运行 Shell 命令,无需切换上下文
  • 完整的 Git 管理能力
  • Side-Git 快照,按 turn 回滚,不污染主仓库 .git

网页搜索

内置网络搜索和页面浏览能力,写代码时可以直接查文档、查 API。

子智能体调度

支持 spawn 子 Agent 并行处理任务。RLM 模式可以扇出 1–16 个 deepseek-v4-flash 实例进行批量分析——多线程写代码的既视感。

MCP 协议支持

原生集成 Model Context Protocol 客户端,可连接外部 MCP 服务器扩展工具链。

思考模式流式输出

实时展示模型的推理链(Chain-of-Thought),看 AI 是怎么一步步分析你的代码问题的。

三种工作模式

  • Plan:只读分析,AI 只看不动,适合代码审查
  • Agent:交互式,每步操作需要你确认,适合日常开发
  • YOLO:全自动,AI 撒手干,适合信任的项目

推理强度分级

通过 Shift+Tab 在 off → high → max 之间切换模型推理深度,灵活平衡速度与质量。v0.8.12 新增 auto 模式自动选择。

实时成本追踪

界面右下角实时显示每轮 Token 消耗、缓存命中率和预估费用。花多少钱一目了然。

其他特性

  • 会话保存/恢复(checkpoint),断点续作
  • 持久化任务队列,后台任务可跨重启存活
  • Skills 技能系统,从 GitHub 安装社区技能包
  • HTTP/SSE 运行时 API(deepseek serve --http),可作为后端服务接入内部工具链
  • 多语言 UI(英文、日文、简体中文、巴西葡萄牙语)
  • 用户记忆,跨会话保留偏好设置

安装教程

方式一:npm 安装(最简单)

npm install -g deepseek-tui

方式二:Cargo 安装(不需要 Node.js)

cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked

方式三:Homebrew(macOS)

brew tap Hmbown/deepseek-tui
brew install deepseek-tui

方式四:直接下载二进制

GitHub Releases 下载对应平台的二进制文件,放进 PATH 即可。注意需要同时下载 deepseek(执行体)和 deepseek-tui(TUI 界面),缺一不可。

方式五:Docker

docker run --rm -it \
  -e DEEPSEEK_API_KEY \
  -v "$PWD:/workspace" \
  ghcr.io/hmbown/deepseek-tui:latest

国内用户加速

如果用 Cargo 安装,建议配置 TUNA 镜像加速:

# 设置 crates.io 镜像
mkdir -p ~/.cargo
cat >> ~/.cargo/config.toml << 'EOF'
[source.crates-io]
replace-with = "tuna"

[source.tuna]
registry = "https://mirrors.tuna.tsinghua.edu.cn/git/crates.io-index.git"
EOF

快速上手

  • 1. 设置 API Key:export DEEPSEEK_API_KEY="sk-..."
  • 2. 进入项目目录:cd your-project
  • 3. 启动:deepseek-tui
  • 4. 首次使用会提示信任工作区,按 1 或 Y 确认
  • 5. 在 Composer 里输入自然语言需求,AI 自动分析并执行
  • 6. 按 Tab 切换 Plan / Agent / YOLO 模式
  • 7. 右下角实时查看 Token 消耗和费用

费用参考

DeepSeek-TUI 的一大优势是便宜。DeepSeek V4 的 API 价格远低于 Claude 和 GPT,配合前缀缓存(Prefix Cache)进一步降低成本。但要注意:

  • 子 Agent 开多后缓存命中率下降
  • 未命中 Token 价格是命中的 10 倍
  • 建议关注界面右下角的实时费用显示
  • /compact 命令压缩上下文,节省 Token

据 36Kr 测评:用 DeepSeek-TUI 跑一天的编程任务,成本不到 10 块钱人民币。

与 Claude Code 对比

  • 模型:DeepSeek-TUI 用 DeepSeek V4,Claude Code 用 Claude
  • 上下文:DeepSeek-TUI 1M Token,Claude Code 200K Token
  • 并行子 Agent:DeepSeek-TUI 支持 1-16 路并行,Claude Code 不支持
  • 思维链:DeepSeek-TUI 原生流式输出推理过程,Claude Code 不原生展示
  • 成本:DeepSeek-TUI 利用 Flash 价差主动降本,Claude Code 统一计费
  • 缓存:DeepSeek-TUI 前缀缓存感知压缩,Claude Code 无专门优化
  • 工作区隔离:DeepSeek-TUI Side-Git 快照按 turn 回滚,Claude Code 基础 Git 集成
  • 开源:DeepSeek-TUI MIT 开源,Claude Code 闭源
  • 国内访问:DeepSeek-TUI 支持国内镜像和中文文档,Claude Code 需国际网络

系统要求

  • Linux、macOS、Windows(含 ARM64)均可运行
  • 需要 DeepSeek V4 API Key(从 DeepSeek 官网申请)
  • 也支持接入 NVIDIA NIM / Fireworks / SGLang 后端
  • 当前版本 v0.8.8,迭代频繁,建议保持更新

适用场景

  • 大型项目分析与重构:用 1M 上下文一次性加载整个代码库
  • 自动化代码审查与 Bug 修复:Plan 模式扫描,Agent/YOLO 模式批量修复
  • 文档生成与维护:根据代码变更自动更新文档
  • CI 清理与依赖更新:持久化任务队列安排周期性任务
  • 批量并行推理:RLM 同时分析多个文件或执行多种测试策略
  • 无头自动化工作流:通过 deepseek serve --http 接入内部工具链

总结

DeepSeek-TUI 是目前最懂 DeepSeek 模型的终端编程智能体。1M Token 超长上下文、16 路并行子 Agent、MIT 开源、国内网络友好——每一条都踩在国内开发者的痛点上。

如果你用 DeepSeek 写代码,这工具必装。如果你用 Claude Code 觉得太贵,也可以试试这个——成本可能只有十分之一。

项目地址:https://github.com/Hmbown/DeepSeek-TUI

上一篇 VLC:免费开源万能播放器,装了就不想换——墨涩网
下一篇 一行命令备份 Windows 所有驱动,重装系统不再愁——墨涩网