
什么是 DeepSeek
DeepSeek 是一家成立于 2023 年的人工智能研发公司,专注于通用大语言模型与底层训练技术的突破,提供面向个人与开发者的对话应用与 API 平台。其产品线以高性价比著称,面向内容创作、代码生成、文档理解与深度推理等专业场景。
在模型演进上,DeepSeek 先后发布了 DeepSeek-V3(2024/12)、深度推理模型 DeepSeek-R1(2025/01),以及采用新型稀疏注意力机制的 DeepSeek-V3.2-Exp(2025/09)。其中 V3.2-Exp 在长上下文效率上显著提升,并同步下调 API 价格,进一步降低大模型落地门槛。
从平台形态看,DeepSeek 提供网页版与移动端 App(免费使用),并开放开发者平台与完整 API 文档,支持上下文缓存、JSON 输出、前缀补全(Prefix Completion)、FIM 补全等工程化能力,便于集成到各类业务系统。
核心技术:DeepSeek-V3 采用大规模混合专家(MoE)架构(总参数规模 671B,激活参数约 37B),并在 14.8T 高质量语料上训练;R1 以大规模强化学习(RL)作为后训练核心,强化数学、代码与复杂推理能力;V3.2-Exp 则引入 DeepSeek Sparse Attention(DSA),在保持输出质量的同时显著降低长上下文的计算开销。
定位与演化:DeepSeek 的路线是“开源 + 低价 + 工程化实用”,一方面持续发布可复现的技术报告与开源权重,另一方面在 API 层以极具竞争力的按量计费提供稳定的生产能力,逐步覆盖从通用对话到深度推理的多层次应用需求。
🚀 DeepSeek 能做什么 · 主要功能解释
通用对话与内容生产(deepseek-chat)
面向日常问答、长文写作与知识整合的主力模型,基于 V3.2-Exp 提供更高吞吐与更低延迟,适合在内容平台、客服与知识库检索后生成(RAG)等场景作为默认对话引擎。
深度推理(deepseek-reasoner)
以 R1 路线为基础的“思维模式”推理模型,默认支持 32K CoT(思维)Token,上限 64K,用于数学推导、复杂代码重构、策略规划与约束求解等任务。该模式更擅长多步推演与中间态思考。
长上下文与上下文缓存(Context Caching)
默认上下文长度 128K,支持对稳定提示与文档段落进行缓存复用,显著降低二次调用的输入成本;在多轮场景与批量处理场景中,缓存命中可将输入单价降至每百万 Token 美分级别。
结构化输出与函数调用
支持 JSON 输出约束以便解析结果直达可用的数据结构;函数调用(Function Calling)用于在对话中触发外部工具或 API(注:思维模式 deepseek-reasoner 不直接支持函数调用,需在工具参数出现时回退由 deepseek-chat 处理)。
代码补全与编辑(Prefix / FIM Completion)
提供前缀补全与 Fill-In-Middle(中间填充)能力,适配 IDE 或在线代码编辑器的智能补全与重构流程;结合 Reasoner 的链式思考,可完成多文件修改建议与测试生成。
跨端应用与文件理解
官方 App 与 Web 端支持文件上传、文本抽取与“深度思考(Deep-Think)”模式,满足移动与桌面跨端使用,适合会议纪要生成、合同条款比对、学术材料速读等。
💡 实用进阶技巧
🧠 按任务选择“思维模式”:需要多步推理与数学/代码难题时切换到 deepseek-reasoner;普通写作与对话优先使用 deepseek-chat 以获得更高性价比。
🗂 利用上下文缓存降本:将稳定提示词与长文档作为缓存块复用,批量请求时能显著提高命中率,从而把输入成本压至每百万 Token $0.028 等量级。
📝 输出约束为 JSON Schema:在系统提示中加入字段定义与示例 JSON,可减少解析失败与二次正则清洗,提升对接后端的稳健性。
🔧 函数调用与工具编排:在 deepseek-chat 中使用函数调用实现检索、数据库查询与外部 API 联动;涉及 Reasoner 的对话可在触发工具时自动回退至 chat 以保持兼容。
✂️ Prefix/FIM 提升改写质量:对代码与长文本编辑,使用 Prefix 或 FIM 让模型在上下文中“定点”重写,避免整段重生成带来的不确定性。
💳 价格套餐与订阅方式
各版本价格与功能差异
| 方案 | 价格 | 核心功能 |
|---|---|---|
| DeepSeek App(个人) | 免费 | V3.2-Exp 在线对话、历史同步、文件上传与文本抽取、Deep-Think 模式 |
| API:deepseek-chat | 输入(缓存命中)$0.028 / 1M Token;输入(未命中)$0.28 / 1M;输出 $0.42 / 1M | V3.2-Exp(非思维模式)、128K 上下文、JSON 输出、函数调用、Prefix/FIM |
| API:deepseek-reasoner | 与上同(思维模式价格一致) | V3.2-Exp(思维模式)、默认 32K CoT 上限 64K、强化推理(不直接支持函数调用) |
| 企业/定制合作 | 按需洽谈 | 商用支持、配额/限流调整、集成咨询与服务(以官方沟通为准) |
订阅方式
1) 注册并登录开发者平台,创建 API Key;2) 充值或领取赠额后即可按量计费调用;3) 在调用策略中开启上下文缓存以优化成本;4) 参考官方文档的模型与路由命名(deepseek-chat / deepseek-reasoner),并留意思维模式与工具调用的兼容细节。
⚠️ 价格说明:价格可能随版本与活动调整,且缓存命中与未命中单价差异较大。请以官方“Models & Pricing / News”页面的最新标注为准,并根据实际使用量分批充值。
❓常见问题解答(FAQ)
Q1: DeepSeek 与 R1/Chat 两个模型如何选择?
A: 写作、归纳、通用对话优先 deepseek-chat;数学推导、复杂规划与代码推理选择 deepseek-reasoner。两者现均基于 V3.2-Exp,不同在于是否启用“思维模式(CoT)”。
Q2: 为什么我看到“函数调用不可用”?
A: 思维模式 deepseek-reasoner 不直接支持函数调用;若在请求中包含 tools 参数,官方策略会回退由 deepseek-chat 处理。请根据任务显式选择模型或分步编排。
Q3: 计费如何计算?缓存命中是什么意思?
A: 费用 = Token 数 × 单价。开启上下文缓存后,重复提示/文档可命中缓存,输入侧按更低单价计费(当前命中价约 $0.028/百万 Token),未命中按常规输入价计费(约 $0.28/百万 Token)。输出侧按统一单价计费。
Q4: 最大上下文与输出上限是多少?
A: 默认上下文长度 128K。deepseek-chat默认最大输出约 4K(可提升至 8K);deepseek-reasoner默认 CoT 32K、上限 64K,用于长链路推理。
Q5: App 是否永久免费?
A: 官方公告显示 App 为“100% 免费,无广告、无内购”。面向开发者与企业的 API 则采用按量计费。
Q6: 是否有开源版本可用于本地研究?
A: 官方陆续开放了包括 V3/V3.2-Exp 与 R1 在内的模型与技术报告,且 R1 及其蒸馏小模型以宽松许可证发布,便于学术与商业使用。请以对应仓库与许可证为准。
Q7: 与同类产品相比,DeepSeek 的优势是什么?
A: 在保证主流基准表现的前提下,DeepSeek 的 API 单价显著更低,且通过 DSA 等工程优化提升了长上下文效率;同时提供开源权重与技术报告,便于复现与对比。
Q8: 出现超时或不可用如何排查?
A: 先检查配额与余额、速率限制与上下文长度;复现后查看官方状态页与“News/Change Log”更新。如为 Reasoner 任务过长,可缩短 CoT 或拆分步骤并启用缓存以减少重算。
相关导航


Perplexity

豆包

Kimi

Claude

腾讯元宝

Cursor

