搬瓦工VPS
Bandwagonhost

DeepSeek V4 接入教程:搬瓦工 VPS 部署 Dify、Open WebUI 与旧模型迁移

这是一篇面向搬瓦工 VPS 用户的 DeepSeek V4 接入教程,重点讲解如何在 VPS 上接入 DeepSeek V4 API,并将 Dify、Open WebUI、n8n、Telegram Bot、自研脚本等应用切换到 deepseek-v4-flashdeepseek-v4-pro。DeepSeek V4 已经正式上线,新的 API 模型主要包括 deepseek-v4-flashdeepseek-v4-pro。如果您之前在搬瓦工 VPS 上跑过 Dify、Open WebUI、n8n、Telegram Bot、自研脚本,或者使用过 deepseek-chatdeepseek-reasoner,现在就需要开始关注迁移了。

DeepSeek V4 接入搬瓦工 VPS,部署 Dify、Open WebUI、n8n 并迁移 deepseek-chat 和 deepseek-reasoner

通过搬瓦工 VPS 承载 Dify、Open WebUI、n8n 和自研 Bot,统一接入 DeepSeek V4 API,并完成旧模型迁移。

根据 DeepSeek 官方更新日志,deepseek-chatdeepseek-reasoner 这两个旧模型名将在 2026 年 7 月 24 日停止使用。

目前为了兼容,deepseek-chat 暂时对应 deepseek-v4-flash 的非思考模式,deepseek-reasoner 暂时对应 deepseek-v4-flash 的思考模式。

这篇文章不只是讲 DeepSeek V4 API 怎么调用,更重要的是讲清楚:

  • 搬瓦工 VPS 在 DeepSeek V4 应用部署里到底负责什么;
  • 还没买 VPS 的用户,应该怎么根据用途选择搬瓦工套餐;
  • 买好 VPS 后,如何用 curl、Python、Dify、Open WebUI、n8n 接入 DeepSeek V4;
  • 已经在用 deepseek-chatdeepseek-reasoner 的项目,怎么平滑迁移;
  • 部署时哪些坑最容易踩,尤其是低配 VPS 跑 Dify、API Key 暴露、Thinking 模式乱开这些问题。

先说结论:搬瓦工 VPS 不是用来本地运行 DeepSeek V4 模型的,而是用来承载调用 DeepSeek V4 API 的应用。真正的模型推理发生在 DeepSeek 官方服务器上,搬瓦工 VPS 负责运行 Dify、Open WebUI、n8n、Bot、反向代理、数据库、定时任务、Webhook 等服务。

一、DeepSeek V4 上线后,搬瓦工 VPS 用户要先检查什么

对普通用户来说,DeepSeek V4 上线后,最重要的不是研究模型有多少参数,而是判断自己的应用应该怎么切换。

如果您只是偶尔在网页端聊天,那影响不大;但如果您已经把 AI 应用部署在搬瓦工 VPS 上,例如:

  • 用 Dify 搭建知识库问答、客服机器人、工作流;
  • 用 Open WebUI 搭建个人或团队聊天界面;
  • 用 n8n 调用 DeepSeek 做自动化任务;
  • 用 Python、Node.js、LangChain 写了自己的脚本;
  • 用 Telegram Bot、Discord Bot、企业微信 Bot 调用 DeepSeek;
  • 通过反向代理或自建 API 网关统一管理模型调用;

那么现在就应该检查模型配置,尽量不要等到旧模型停止使用前再临时修改。

1. deepseek-v4-flash 和 deepseek-v4-pro 怎么选

DeepSeek V4 目前最常用的是两个模型:

模型 特点 适合场景
deepseek-v4-flash 速度快、成本低,适合高频调用 日常聊天、客服机器人、知识库问答、简单摘要、API 中转
deepseek-v4-pro 能力更强,适合复杂任务 代码生成、复杂推理、长文档分析、Agent 工作流、复杂规划

简单来说:

  • 普通聊天、客服、RAG 知识库问答,优先用 deepseek-v4-flash
  • 复杂代码、数学推理、长文档分析、Agent 任务,再用 deepseek-v4-pro
  • 不是所有任务都需要 Pro,也不是所有任务都需要 Thinking 模式。

DeepSeek 官方文档显示,V4 系列支持 OpenAI API 格式和 Anthropic API 格式,OpenAI 格式的 Base URL 为:

https://api.deepseek.com

Anthropic 格式的 Base URL 为:

https://api.deepseek.com/anthropic

如果您的应用原本已经支持 OpenAI 兼容接口,比如 Dify、Open WebUI、LangChain、n8n、自研脚本,通常不用重写程序,只需要修改 API 地址、API Key 和模型名称。

2. deepseek-chat / deepseek-reasoner 怎么迁移

如果您之前使用的是旧模型,可以先按下面这个表迁移:

旧模型 推荐替换 说明
deepseek-chat deepseek-v4-flash 适合日常聊天、普通问答、知识库问答、低成本任务
deepseek-chat deepseek-v4-pro 如果原来的任务对输出质量要求较高,可以切到 Pro
deepseek-reasoner deepseek-v4-pro + Thinking 模式 适合复杂推理、数学、代码、规划类任务

需要注意:官方为了兼容,当前 deepseek-reasoner 暂时指向 deepseek-v4-flash 的思考模式;但如果您的原任务本身依赖较强推理能力,正式迁移时更建议改成 deepseek-v4-pro + Thinking 模式。

这里还要注意一点:DeepSeek V4 的 Thinking 模式默认是开启状态。如果您想让模型快速直接回答,或者希望控制成本,可以在请求里明确关闭 Thinking。

关闭 Thinking 的参数示例:

{
  "thinking": {"type": "disabled"}
}

开启 Thinking 的参数示例:

{
  "thinking": {"type": "enabled"},
  "reasoning_effort": "high"
}

如果使用 OpenAI SDK,建议按官方示例传参:thinking 放到 extra_body 里,reasoning_effort 可以直接作为请求参数传入。

二、DeepSeek V4 接入前,搬瓦工 VPS 套餐怎么选

很多人看到 DeepSeek V4 这种大模型,第一反应是:是不是需要 GPU 服务器?普通搬瓦工 VPS 能不能跑?

这里要明确区分两件事:

本地运行 DeepSeek V4 模型在 VPS 上部署调用 DeepSeek V4 API 的应用,完全不是一回事。

DeepSeek V4-Pro、V4-Flash 这类模型本身并不适合在普通 VPS 上本地推理。

本文讲的是第二种情况:模型跑在 DeepSeek 官方服务器上,搬瓦工 VPS 只负责运行应用层服务。

也就是说,搬瓦工 VPS 在这个架构里的角色是:

用户浏览器 / 手机 / Telegram / 企业微信
        ↓
搬瓦工 VPS
        ↓
Dify / Open WebUI / n8n / Bot / 自研接口
        ↓
DeepSeek API
        ↓
deepseek-v4-flash / deepseek-v4-pro

所以,选搬瓦工套餐时,不需要看 GPU,而要看下面几个更实际的因素:

  • 内存:Dify、Open WebUI、n8n、PostgreSQL、Redis、向量库都会占内存;
  • 硬盘:知识库文件、日志、数据库、Docker 镜像、附件都会占空间;
  • 线路:国内访问后台、Webhook 回调、Bot 请求速度会受到线路影响;
  • 流量:多人使用、知识库上传、长文本请求、图片附件都会消耗流量;
  • 稳定性:客服 Bot、企业内部工具、自动化工作流都需要 24 小时在线。

如果您比较在意线路和机房选择,尤其是考虑 CN2 GIA-E 或 EUNL_1 机房,可以先看这篇 搬瓦工 CN2 GIA-E 套餐开放 EUNL_1 机房选购,了解线路表现和无法迁移限制,再决定是否下单。

如果您只是跑一个 Python 脚本调用 DeepSeek API,低配 VPS 就够用;如果您要跑 Open WebUI,建议内存不要太紧;如果您要跑 Dify、n8n、知识库、数据库、反向代理,建议直接选择更高内存的套餐。

如果您还没有购买搬瓦工 VPS,可以直接按下面的套餐表选择。只跑 API 脚本和 Bot,可以选低配;想长期使用 Open WebUI,建议选择内存更宽松的套餐;如果要跑 Dify、n8n、知识库、数据库和多服务 Docker,建议直接选择更高内存方案,后期会省很多排查成本。

已经有搬瓦工 VPS 的用户,也可以对照下面表格检查当前配置是否够用。

如果您的机器只有 1GB 内存,又打算跑完整 Dify 或多个 Docker 服务,建议优先考虑升级。

套餐CPU内存硬盘流量带宽推荐机房价格购买
KVM套餐2核1GB20GB1TB1GbpsDC2 AO
DC8 ZNET
等7个机房
$49.99/年
最便宜
购买
KVM套餐3核2GB40GB2TB1Gbps$52.99/半年
$99.99/年
购买
CN2 GIA-E
(最推荐)
2核1GB20GB1TB2.5GbpsDC6 CN2GIA
DC9 CN2GIA
日本软银
圣何塞CN2GIA
加拿大CN2GIA
等15个机房
$49.99/季度
$169.99/年
购买
CN2 GIA-E
(AI 部署)
3核2GB40GB2TB2.5Gbps$89.99/季度
$299.99/年
购买
SLA PLAN
(SLA 保障)
2核
独享
1GB20GB1TB2.5Gbps美国 DC5 SLA
99.99% 在线率
每两周免费换IP
$65.89/季
$239.99/年
购买
SLA PLAN
(外贸建站)
3核
独享
2GB40GB2TB2.5Gbps$116.99/季
$399.99/年
购买
中国香港
(高端首选)
2核2GB40GB0.5TB1Gbps中国香港
日本东京
日本大阪
新加坡
等15个机房
$89.99/月
$899.99/年
购买
中国香港4核4GB80GB1TB1Gbps$155.99/月
$1559.99/年
购买
日本大阪
(高性价比)
2核2GB40GB0.5TB1.5Gbps大阪[JPOS_6]
DC6 CN2GIA
DC9 CN2GIA
香港[HKHK_3]
荷兰[EUNL_9]
等19个机房
$49.99/月
$499.99/年
购买
日本大阪4核4GB80GB1TB1.5Gbps$86.99/月
$869.99/年
购买

不知道怎么选的话,可以简单按下面这个方法:轻量脚本和 Bot 选低配,Open WebUI 选中配,Dify / n8n / 知识库选更高内存套餐,商业项目优先选稳定性更好的方案。

选择建议:

  • 只跑 API 脚本、Telegram Bot、反向代理:低配套餐可以开始;
  • 搭建 Open WebUI:建议选择内存更宽松的中低配套餐;
  • 部署 Dify:建议不要低于 2GB 内存,知识库、多应用、多用户场景建议更高;
  • 同时运行 Dify、n8n、Open WebUI、数据库、反向代理:建议直接选择更高内存套餐;
  • 客服机器人、团队工具、商业项目:不要只看最低价格,要优先考虑稳定性、线路、备份和长期维护成本。

不建议为了省一点预算,强行用低内存套餐跑完整 Dify。DeepSeek V4 虽然不跑在 VPS 本地,但 Dify 自身的 Web 服务、数据库、Redis、向量检索、插件、工作流都要占资源。后期如果出现容器重启、后台卡顿、知识库索引失败,排查成本通常比套餐差价更高。

如果您手里已经有小内存 VPS,又想同时折腾 Dify、n8n 和 Agent 应用,可以参考这篇 搬瓦工安装 AI Agent 教程,用存算分离的思路降低单台 VPS 的资源压力。

一句话总结:DeepSeek V4 负责模型能力,搬瓦工 VPS 负责让您的 AI 应用稳定在线。套餐选对了,后面部署才省心。

三、在搬瓦工 VPS 上接入 DeepSeek V4 API

搬瓦工 VPS 准备好之后,就可以开始配置 DeepSeek API。下面以常见 Linux 系统为例,演示从 API Key 到 curl、Python SDK 的完整测试流程。

1. 获取 DeepSeek API Key

打开 DeepSeek 开放平台:

https://platform.deepseek.com

登录后进入 API Keys 页面,创建一个新的 API Key。建议给 Key 起一个容易识别的名字,例如:

bandwagonhost-vps-dify

API Key 创建后通常只会完整显示一次,建议马上复制保存。

安全提醒:

  • 不要把 API Key 写死在前端 JavaScript 里;
  • 不要把 API Key 提交到 GitHub;
  • 不要把 API Key 发到公开群、论坛或工单截图里;
  • 如果怀疑泄露,立刻删除旧 Key 并重新生成;
  • Dify、Open WebUI、n8n、自研 Bot 都应该在服务端保存 Key。

2. 在搬瓦工 VPS 上设置环境变量

SSH 登录搬瓦工 VPS 后,先设置环境变量:

export DEEPSEEK_API_KEY="sk-您的key"

如果希望长期生效,可以写入 ~/.bashrc

echo 'export DEEPSEEK_API_KEY="sk-您的key"' >> ~/.bashrc
source ~/.bashrc

检查是否生效:

echo $DEEPSEEK_API_KEY

如果能看到您刚才设置的 Key,说明环境变量已经生效。

3. 用 curl 测试 deepseek-v4-flash

先用最简单的 curl 请求测试 API 是否能正常调用:

curl https://api.deepseek.com/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
  -d '{
    "model": "deepseek-v4-flash",
    "messages": [
      {"role": "system", "content": "您是一个简洁的助手"},
      {"role": "user", "content": "用一句话介绍搬瓦工 VPS"}
    ],
    "thinking": {"type": "disabled"},
    "stream": false
  }'

如果请求成功,会返回类似下面这样的 JSON:

{
  "id": "...",
  "model": "deepseek-v4-flash",
  "choices": [
    {
      "message": {
        "role": "assistant",
        "content": "搬瓦工是一家提供海外 VPS 服务的主机商,常用于建站、代理、脚本运行和部署各类 Web 应用。"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 30,
    "total_tokens": 55
  }
}

看到 choicesusage 字段,基本就说明 API Key、网络、模型名称都正常。

4. 用 curl 测试 deepseek-v4-pro 和 Thinking 模式

如果您要测试复杂推理,可以使用 deepseek-v4-pro 并开启 Thinking:

curl https://api.deepseek.com/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "请用简洁方式证明:根号 2 是无理数"}
    ],
    "thinking": {"type": "enabled"},
    "reasoning_effort": "high",
    "stream": false
  }'

Thinking 模式适合复杂推理,但会消耗更多输出 token。普通聊天、客服问答、简单摘要,不建议默认全部开启 Thinking。

5. 用 Python OpenAI SDK 调用 DeepSeek V4

DeepSeek API 兼容 OpenAI SDK,所以不需要安装 DeepSeek 专属库。

先安装 Python 环境:

sudo apt update
sudo apt install -y python3 python3-pip python3-venv

创建虚拟环境:

python3 -m venv ~/deepseek-venv
source ~/deepseek-venv/bin/activate

安装 OpenAI SDK:

pip install openai

创建 chat.py

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ.get("DEEPSEEK_API_KEY"),
    base_url="https://api.deepseek.com",
    timeout=120.0,
)

response = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "您是一个简洁的助手"},
        {"role": "user", "content": "搬瓦工 VPS 适合部署哪些 AI 应用?"},
    ],
    extra_body={
        "thinking": {"type": "disabled"}
    },
    stream=False,
)

print(response.choices[0].message.content)
print(f"Tokens used: {response.usage.total_tokens}")

运行:

python chat.py

如果正常输出回答和 token 用量,说明 Python SDK 已经接入成功。

6. Python 流式输出示例

长回复建议使用流式输出,体感会好很多。创建 stream.py

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ.get("DEEPSEEK_API_KEY"),
    base_url="https://api.deepseek.com",
    timeout=120.0,
)

stream = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "user", "content": "写一段 200 字的搬瓦工 VPS 介绍"},
    ],
    extra_body={
        "thinking": {"type": "disabled"}
    },
    stream=True,
)

for chunk in stream:
    delta = chunk.choices[0].delta
    if delta.content:
        print(delta.content, end="", flush=True)

print()

运行:

python stream.py

流式输出适合聊天界面、长文生成、Dify Workflow、自研 Web 应用等场景。

7. Python 调用 deepseek-v4-pro 并开启 Thinking

如果需要复杂推理,可以使用 deepseek-v4-pro 并开启 Thinking:

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ.get("DEEPSEEK_API_KEY"),
    base_url="https://api.deepseek.com",
    timeout=120.0,
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "user", "content": "请分析一个 Dify 知识库问答系统应该如何控制成本。"},
    ],
    reasoning_effort="high",
    extra_body={
        "thinking": {"type": "enabled"}
    },
    stream=False,
)

message = response.choices[0].message

if hasattr(message, "reasoning_content") and message.reasoning_content:
    print("推理过程:")
    print(message.reasoning_content)

print("\n最终答案:")
print(message.content)

注意:Thinking 模式会增加输出 token,用在真正复杂的任务上更合适。普通客服问答、简单翻译、短文本摘要,用 deepseek-v4-flash 关闭 Thinking 通常更划算。

四、Dify、Open WebUI、n8n 如何接入 DeepSeek V4

如果您已经在搬瓦工 VPS 上部署了 Dify、Open WebUI、n8n 或 Bot,切换到 DeepSeek V4 通常不需要重装系统,也不需要重写项目。核心就是修改 API 配置。

1. Dify 接入 DeepSeek V4

Dify 是最常见的 AI 应用平台之一,适合做聊天助手、知识库问答、客服机器人、工作流和 Agent 应用。

如果您还没有在 VPS 上安装过 Dify,可以先参考这篇 VPS 部署 Dify 教程,把 Dify 基础环境搭好之后,再回到本文配置 DeepSeek V4 模型。

进入 Dify 后台,找到模型供应商设置。如果有 DeepSeek 供应商,可以直接配置 DeepSeek;如果没有,也可以选择 OpenAI-API-compatible 类型。

配置项 填写内容 说明
API Key 您的 DeepSeek API Key 建议保存在服务端,不要暴露到前端
Base URL https://api.deepseek.com OpenAI 兼容接口地址
Model Name deepseek-v4-flash 日常聊天、知识库问答、低成本任务推荐
Model Name deepseek-v4-pro 复杂推理、代码、Agent、长文档分析推荐
Context Size 按应用需要填写 不要盲目拉满,长上下文会增加成本和等待时间
Max Tokens 按任务设置 普通问答不需要设置太大

Dify 里建议这样分配模型:

Dify 应用类型 推荐模型 建议
普通聊天助手 deepseek-v4-flash 成本低,响应快
知识库问答 deepseek-v4-flash 大多数 RAG 场景够用
复杂工作流 deepseek-v4-pro 需要更强理解和规划能力
代码生成 / 重构 deepseek-v4-pro 可以视情况开启 Thinking
Agent 多步骤任务 deepseek-v4-pro 复杂任务建议开启 Thinking

如果您的搬瓦工 VPS 是低配套餐,不建议一开始就把 Dify、Open WebUI、n8n、数据库、向量库全部塞到同一台机器上。可以先部署 Dify 核心服务,确认稳定后再逐步增加其他组件。

2. Open WebUI 接入 DeepSeek V4

Open WebUI 更适合个人或小团队搭建聊天界面。相比 Dify,它的应用逻辑更简单,部署压力也相对低一些。

进入 Open WebUI 管理后台,找到 OpenAI API 连接配置,填写:

配置项 填写内容
API Base URL https://api.deepseek.com
API Key 您的 DeepSeek API Key
Model deepseek-v4-flash / deepseek-v4-pro

Open WebUI 使用建议:

  • 个人日常聊天:优先使用 deepseek-v4-flash
  • 写代码、分析长文档:切换到 deepseek-v4-pro
  • 简单问答不建议默认开启 Thinking;
  • 多人使用时,建议选择内存更宽松的搬瓦工套餐;
  • 长回复建议开启流式输出,体验会更好。

如果您只是想在 VPS 上搭一个自己的 ChatGPT 类网页,Open WebUI + DeepSeek V4-Flash 是比较轻量的组合。相比完整 Dify,它更适合预算有限或只想自用的用户。

3. n8n 接入 DeepSeek V4

n8n 适合做自动化工作流,例如:

  • 定时总结 RSS 新闻;
  • 自动处理邮件内容;
  • 接收 Webhook 后调用 DeepSeek 生成回复;
  • 把用户问题转发给 Dify 或 DeepSeek API;
  • 对接 Telegram、企业微信、飞书、Notion、Google Sheets 等服务。

如果您想把 n8n 单独部署在搬瓦工 VPS 上,可以先看这篇 搬瓦工 VPS 部署 n8n 教程,再按照本文的 Base URL、API Key 和模型名称接入 DeepSeek V4。

如果 n8n 的 OpenAI 节点支持自定义 Base URL,可以这样填:

配置项 填写内容
Base URL https://api.deepseek.com
API Key 您的 DeepSeek API Key
Model deepseek-v4-flash

n8n 这类服务的特点是 CPU 压力通常不大,但需要长期稳定在线。如果您用它做客服回复、自动工单、Webhook 转发,搬瓦工 VPS 的稳定性和线路就比单纯低价更重要。

4. 自研 Bot / LangChain / Node.js 接入 DeepSeek V4

如果您是自己写脚本或 Web 服务,建议把 DeepSeek 配置写成环境变量,方便后续更换模型。

例如 .env 文件:

DEEPSEEK_API_KEY=sk-您的key
DEEPSEEK_BASE_URL=https://api.deepseek.com
DEEPSEEK_MODEL=deepseek-v4-flash

这样后续从 deepseek-v4-flash 切换到 deepseek-v4-pro,只需要修改配置,不需要到处改代码。

如果是 Node.js 项目,可以使用 OpenAI SDK 的兼容方式接入。核心配置仍然是:

baseURL: "https://api.deepseek.com"
apiKey: process.env.DEEPSEEK_API_KEY
model: "deepseek-v4-flash"

生产环境建议再加上:

  • 请求超时设置;
  • 错误重试;
  • 日志记录;
  • 用户请求频率限制;
  • token 用量统计;
  • 异常账单提醒。

这些细节比单纯“能调用成功”更重要。尤其是公开给用户使用的 Bot,一定要做好限流,否则 API Key 一旦被滥用,很容易产生额外费用。

五、旧模型迁移、成本控制与常见问题

最后这一部分给已经部署过 DeepSeek 应用的用户。建议照着清单逐项检查,不要只改一个模型名就直接上线。

1. deepseek-chat / deepseek-reasoner 迁移清单

  1. 搜索代码和配置文件里的 deepseek-chat
  2. 搜索代码和配置文件里的 deepseek-reasoner
  3. 日常聊天、普通问答、知识库问答改为 deepseek-v4-flash
  4. 复杂推理、代码生成、Agent 规划改为 deepseek-v4-pro
  5. 原来依赖 deepseek-reasoner 的任务,检查是否需要开启 Thinking;
  6. Dify 里检查模型供应商配置;
  7. Open WebUI 里检查模型列表和 API 地址;
  8. n8n 里检查 OpenAI 节点或 HTTP Request 节点;
  9. 自研脚本里检查 modelbase_urlthinking 参数;
  10. 测试流式输出是否正常;
  11. 测试长文本输入是否会超时;
  12. 观察 token 消耗和账单变化;
  13. 重启相关服务,并检查日志;
  14. 确认 API Key 没有写到前端或公开仓库。

2. DeepSeek API 成本和搬瓦工 VPS 成本怎么分开算

很多新手会把 AI 应用成本混在一起看,其实应该拆成两部分:

成本类型 说明 是否固定
搬瓦工 VPS 运行 Dify、Open WebUI、n8n、Bot、数据库、反向代理 相对固定
DeepSeek API 按输入和输出 token 计费 随用量变化
域名 用于访问 Dify、Open WebUI、Bot 后台 可选固定成本
备份 / 存储 数据库备份、知识库文件、日志 视情况变化

截至本文更新时,DeepSeek 官方价格以人民币 / 百万 tokens 计费,具体价格以官方价格页为准。当前常用价格如下:

模型 缓存命中输入 缓存未命中输入 输出
deepseek-v4-flash 0.02 元 / 百万 tokens 1 元 / 百万 tokens 2 元 / 百万 tokens
deepseek-v4-pro 限时价 0.025 元 / 百万 tokens 3 元 / 百万 tokens 6 元 / 百万 tokens

其中 deepseek-v4-pro 为限时 2.5 折价格,官方标注优惠期至北京时间 2026 年 5 月 5 日 23:59。价格可能随官方策略变化,实际计费请以 DeepSeek 官方价格页为准。

低频自用时,DeepSeek API 费用通常不会太夸张;但如果您做客服机器人、多人知识库、长文档分析,token 成本就需要认真控制。

控制成本的建议:

  • 默认模型用 deepseek-v4-flash
  • 复杂任务再切 deepseek-v4-pro
  • 简单任务不要默认开启 Thinking;
  • 不要把最大输出 token 设置得过高;
  • RAG 知识库不要一次塞入过多无关上下文;
  • 对公开 Bot 做用户限流;
  • 定期查看 DeepSeek 后台用量。

3. DeepSeek V4 接入常见问题

下面整理一些搬瓦工 VPS 用户在接入 DeepSeek V4 时最容易遇到的问题,包括本地推理、套餐配置、Dify 与 Open WebUI 选择、Thinking 模式、API Key 安全和旧模型迁移等。

如果您是第一次在 VPS 上部署 AI 应用,建议先看完这部分再动手配置。

1. 搬瓦工 VPS 能不能本地跑 DeepSeek V4?

不建议,也不现实。

DeepSeek V4-Pro、V4-Flash 都是大模型,普通 VPS 不适合本地推理。

本文讲的是调用 DeepSeek 官方 API,搬瓦工 VPS 只负责运行 Dify、Open WebUI、n8n、Bot 等应用。

2. 既然模型不跑在 VPS 上,那为什么还要买搬瓦工?

因为您需要一台 24 小时在线的服务器来运行应用。

Dify、Open WebUI、n8n、Telegram Bot、自研接口、Webhook、数据库、反向代理都需要部署环境。本地电脑关机后服务就停了,VPS 更适合长期运行。

3. 1GB 内存能不能跑 Dify?

不建议。

轻量脚本、简单 Bot、反向代理可以用低配,但完整 Dify 涉及多个服务,低内存 VPS 很容易卡顿或容器异常。想稳定跑 Dify,建议选择内存更宽松的套餐。

4. Open WebUI 和 Dify 应该选哪个?

如果您只是想搭一个个人聊天界面,Open WebUI 更轻量;如果您要做知识库、工作流、客服机器人、多应用管理,Dify 更合适。Open WebUI 偏聊天入口,Dify 偏应用平台。

5. DeepSeek V4-Flash 和 V4-Pro 怎么选?

默认用 deepseek-v4-flash

它适合日常问答、客服、知识库、低成本调用。

遇到复杂推理、代码生成、长文档分析、Agent 规划,再切到 deepseek-v4-pro

6. Thinking 模式要不要一直开?

不建议一直开。

Thinking 模式适合复杂推理,但会增加输出 token 和响应时间。

普通聊天、客服、简单摘要、常规知识库问答,通常不需要默认开启。

7. 为什么长上下文请求容易慢?

长上下文意味着模型要处理更多输入 token,响应时间和费用都会上升。

即使 DeepSeek V4 支持较长上下文,也不代表每次请求都应该塞满。

RAG 应用里应该尽量检索相关内容,而不是把所有文档都丢进去。

8. API 调用慢怎么办?

可以先检查几个方面:VPS 线路是否稳定、是否开启流式输出、请求内容是否过长、是否开启了 Thinking、模型是否选择了 Pro、客户端 timeout 是否过短。长回复建议使用 stream=true

如果您怀疑是 VPS 网络问题,也可以用 Speedtest-cli 测试 VPS 的上下行速度,先确认服务器本身的带宽、延迟和丢包情况,再排查 DeepSeek API 或应用配置。

9. 已经有搬瓦工 VPS,还需要升级吗?

如果只是跑脚本、Bot、Open WebUI,可以先不升级;如果要跑 Dify、n8n、知识库、数据库、多用户访问,建议对照前面的套餐表,确认内存、硬盘和流量是否够用。

10. API Key 应该放在哪里?

放在 VPS 服务端,建议使用环境变量、.env 文件或 Docker Secret。不要放在前端代码里,也不要提交到 GitHub。

4. 模型、套餐和迁移怎么选

DeepSeek V4 上线后,搬瓦工 VPS 用户最应该做的不是盲目追新,而是把自己的部署链路整理清楚:

  • 模型调用走 DeepSeek 官方 API;
  • 应用服务运行在搬瓦工 VPS 上;
  • 普通任务默认使用 deepseek-v4-flash
  • 复杂任务再切 deepseek-v4-pro
  • Dify、Open WebUI、n8n 按实际资源选择套餐;
  • 旧模型尽快迁移,不要等到停止使用前才处理。

如果您还没有 VPS,可以回到前面的搬瓦工套餐表,按用途选择合适的套餐;如果已经有搬瓦工 VPS,先确认当前配置是否适合 Dify、Open WebUI、n8n 等服务,再按照本文步骤接入 DeepSeek V4。

一句话总结:DeepSeek V4 负责模型能力,搬瓦工 VPS 负责应用稳定在线。模型选对、套餐选对、Key 管好,后面部署 Dify、Open WebUI、n8n 和 Bot 才会真正省心。

参考资料:

【常驻小尾巴】
无论本文聊的是 VPS、脚本还是一杯拿铁,我们都为折腾留了一个出口——
👥 搬瓦工中文网QQ交流群:238290124
一句话简介:技术闲聊、优惠爆料、翻车互助、红包随机掉落。
我们在这里等你一起把不可能变成日常。

关于搬瓦工 (BandwagonHost)

搬瓦工隶属于加拿大 IT7 Networks,是全球知名的 VPS 提供商。提供基于 KVM 架构的高性能主机,拥有包括香港、东京、洛杉矶在内的 20 个顶级机房。其自研的 KiwiVM 面板支持机房一键迁移、快照备份及 API 管理,以稳定性和极速直连线路著称。

搬瓦工购买教程搬瓦工套餐汇总