赞美太阳啊 发表于 2025-3-14 07:12

新人求教如何不受限制的使用满血版DeepSeek?

在已经充值的情况下,如何不受限制的使用deepseek?这个限制包括:一次性输出的内容字数要大于2万字以上;不会出现“当前对话已超出深度思考的最大长度限制”

碧琟 发表于 2025-3-14 07:25

用API的话一般能调整 max_tokens 参数, 尽量调高.
不过, 我还真不知道官方api的上限, 我使用第三方的最高只有1万6的token, 无法实现2万字的输出.

赞美太阳啊 发表于 2025-3-14 07:26

碧琟 发表于 2025-3-14 07:25
用API的话一般能调整 max_tokens 参数, 尽量调高.
不过, 我还真不知道官方api的上限, 我使用第三方的最高只 ...

这个用的是什么版本的工具?

UNICORN00 发表于 2025-3-14 08:05

模型好像是163840,不知道部署的开放了多少

—— 来自 Xiaomi 22041211AC, Android 12, 鹅球 v3.4.98

rolandxjx 发表于 2025-3-14 10:15

https://api-docs.deepseek.com/quick_start/pricing
Pricing Details

MODEL(1)deepseek-chatdeepseek-reasoner
CONTEXT LENGTH64K64K
MAX COT TOKENS(2)-32K
MAX OUTPUT TOKENS(3)8K8K
STANDARD PRICE
(UTC 00:30-16:30)1M TOKENS INPUT (CACHE HIT)(4)$0.07$0.14
1M TOKENS INPUT (CACHE MISS)$0.27$0.55
1M TOKENS OUTPUT(5)$1.10$2.19
DISCOUNT PRICE(6)
(UTC 16:30-00:30)1M TOKENS INPUT (CACHE HIT)$0.035(50% OFF)$0.035(75% OFF)
1M TOKENS INPUT (CACHE MISS)$0.135(50% OFF)$0.135(75% OFF)
1M TOKENS OUTPUT$0.550(50% OFF)$0.550(75% OFF)


[*](1) The deepseek-chat model points to DeepSeek-V3. The deepseek-reasoner model points to DeepSeek-R1.
[*](2) CoT (Chain of Thought) is the reasoning content deepseek-reasoner gives before output the final answer. For details, please refer to Reasoning Model。
[*](3) If max_tokens is not specified, the default maximum output length is 4K. Please adjust max_tokens to support longer outputs.
[*](4) Please check DeepSeek Context Caching for the details of Context Caching.
[*](5) The output token count of deepseek-reasoner includes all tokens from CoT and the final answer, and they are priced equally.
[*](6) DeepSeek API provides off-peak pricing discounts during 16:30-00:30 UTC each day. The completion timestamp of each request determines its pricing tier.

kouym 发表于 2025-3-14 11:51

r1 输出就是顶天8k token 怎么可能输出2万字呢
而且上面的max token 是输入加输出吧

赞美太阳啊 发表于 2025-3-14 12:01

本帖最后由 赞美太阳啊 于 2025-3-14 12:08 编辑

kouym 发表于 2025-3-14 11:51
r1 输出就是顶天8k token 怎么可能输出2万字呢
而且上面的max token 是输入加输出吧 ...
请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds,至于一次性输出多少token倒不强求,但要求不要像官方网页版哪样,若干次对话之后就要求重头再来。

dodolee 发表于 2025-3-14 12:33

赞美太阳啊 发表于 2025-3-14 12:01
请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds ...
这种多轮对话都是通把之前的对话内容全部作为下一轮对话输入实现的,输入token限制的小的话轮数一多就会忘记之前的对话内容。

琉璃苑軒風 发表于 2025-3-14 12:57

赞美太阳啊 发表于 2025-3-14 12:01
请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds ...

没有,这个模型就8K tokens输出,你要不给他分段,这次的结果给下次的开头用

或者等R2会不会调整

赞美太阳啊 发表于 2025-3-14 13:03

琉璃苑軒風 发表于 2025-3-14 12:57
没有,这个模型就8K tokens输出,你要不给他分段,这次的结果给下次的开头用

或者等R2会不会调整 ...

本地部署的r1模型,能不能解决这个问题?

紧那罗 发表于 2025-3-14 13:42

赞美太阳啊 发表于 2025-3-14 13:03
本地部署的r1模型,能不能解决这个问题?

不能 现在科技的极限就到这了

kouym 发表于 2025-3-14 13:43

赞美太阳啊 发表于 2025-3-14 12:01
请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds ...

一般第三方工具都是在你上下文要满了的时候 自动帮你截掉最初的一两轮

碧琟 发表于 2025-3-14 14:05

赞美太阳啊 发表于 2025-3-14 07:26
这个用的是什么版本的工具?

这个是 硅基流动 SiliconFlow 的

琉璃苑軒風 发表于 2025-3-14 15:46

赞美太阳啊 发表于 2025-3-14 13:03
本地部署的r1模型,能不能解决这个问题?

不能,公开发布的R1就是8K输出

要么后续新模型解决,当下你R1本地部署也就解决服务器卡顿问题而已

nanoka111 发表于 2025-3-20 08:41

现在开始尝试用Deepseek来搞开发,发现就是把原来用于GPT的代码换个模型而已。
不过看起来目前Deepseek还缺少一些功能的支持,比如说不支持Assistants和Function call,但这些之前有些也只是OpenAI官方的大模型才支持的,只能等后续更新了。不过还好LangChain是支持的,虽说我现在只是写程序自己玩。
页: [1]
查看完整版本: 新人求教如何不受限制的使用满血版DeepSeek?