找回密码
 立即注册
查看: 2988|回复: 14

[软件] 新人求教如何不受限制的使用满血版DeepSeek?

[复制链接]
发表于 2025-3-14 07:12 | 显示全部楼层 |阅读模式
在已经充值的情况下,如何不受限制的使用deepseek?这个限制包括:一次性输出的内容字数要大于2万字以上;不会出现“当前对话已超出深度思考的最大长度限制”
回复

使用道具 举报

     
发表于 2025-3-14 07:25 | 显示全部楼层
用API的话一般能调整 max_tokens 参数, 尽量调高.
不过, 我还真不知道官方api的上限, 我使用第三方的最高只有1万6的token, 无法实现2万字的输出.

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

 楼主| 发表于 2025-3-14 07:26 | 显示全部楼层
碧琟 发表于 2025-3-14 07:25
用API的话一般能调整 max_tokens 参数, 尽量调高.
不过, 我还真不知道官方api的上限, 我使用第三方的最高只 ...

这个用的是什么版本的工具?
回复

使用道具 举报

     
发表于 2025-3-14 08:05 来自手机 | 显示全部楼层
模型好像是163840,不知道部署的开放了多少

—— 来自 Xiaomi 22041211AC, Android 12, 鹅球 v3.4.98
回复

使用道具 举报

发表于 2025-3-14 10:15 | 显示全部楼层
https://api-docs.deepseek.com/quick_start/pricing
Pricing Details
MODEL(1)deepseek-chatdeepseek-reasoner
CONTEXT LENGTH64K64K
MAX COT TOKENS(2)-32K
MAX OUTPUT TOKENS(3)8K8K
STANDARD PRICE
(UTC 00:30-16:30)
1M TOKENS INPUT (CACHE HIT)(4)$0.07$0.14
1M TOKENS INPUT (CACHE MISS)$0.27$0.55
1M TOKENS OUTPUT(5)$1.10$2.19
DISCOUNT PRICE(6)
(UTC 16:30-00:30)
1M TOKENS INPUT (CACHE HIT)$0.035(50% OFF)$0.035(75% OFF)
1M TOKENS INPUT (CACHE MISS)$0.135(50% OFF)$0.135(75% OFF)
1M TOKENS OUTPUT$0.550(50% OFF)$0.550(75% OFF)

  • (1) The deepseek-chat model points to DeepSeek-V3. The deepseek-reasoner model points to DeepSeek-R1.
  • (2) CoT (Chain of Thought) is the reasoning content deepseek-reasoner gives before output the final answer. For details, please refer to [color=var(--ifm-link-color)]Reasoning Model
  • (3) If max_tokens is not specified, the default maximum output length is 4K. Please adjust max_tokens to support longer outputs.
  • (4) Please check [color=var(--ifm-link-color)]DeepSeek Context Caching for the details of Context Caching.
  • (5) The output token count of deepseek-reasoner includes all tokens from CoT and the final answer, and they are priced equally.
  • (6) DeepSeek API provides off-peak pricing discounts during 16:30-00:30 UTC each day. The completion timestamp of each request determines its pricing tier.

回复

使用道具 举报

     
发表于 2025-3-14 11:51 | 显示全部楼层
r1 输出就是顶天8k token 怎么可能输出2万字呢
而且上面的max token 是输入加输出吧
回复

使用道具 举报

 楼主| 发表于 2025-3-14 12:01 | 显示全部楼层
本帖最后由 赞美太阳啊 于 2025-3-14 12:08 编辑
kouym 发表于 2025-3-14 11:51
r1 输出就是顶天8k token 怎么可能输出2万字呢
而且上面的max token 是输入加输出吧 ...

请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds,至于一次性输出多少token倒不强求,但要求不要像官方网页版哪样,若干次对话之后就要求重头再来。

回复

使用道具 举报

     
发表于 2025-3-14 12:33 | 显示全部楼层
赞美太阳啊 发表于 2025-3-14 12:01
请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds ...

这种多轮对话都是通把之前的对话内容全部作为下一轮对话输入实现的,输入token限制的小的话轮数一多就会忘记之前的对话内容。
回复

使用道具 举报

     
发表于 2025-3-14 12:57 | 显示全部楼层
赞美太阳啊 发表于 2025-3-14 12:01
请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds ...

没有,这个模型就8K tokens输出,你要不给他分段,这次的结果给下次的开头用

或者等R2会不会调整
回复

使用道具 举报

 楼主| 发表于 2025-3-14 13:03 | 显示全部楼层
琉璃苑軒風 发表于 2025-3-14 12:57
没有,这个模型就8K tokens输出,你要不给他分段,这次的结果给下次的开头用

或者等R2会不会调整 ...

本地部署的r1模型,能不能解决这个问题?
回复

使用道具 举报

     
发表于 2025-3-14 13:42 | 显示全部楼层
赞美太阳啊 发表于 2025-3-14 13:03
本地部署的r1模型,能不能解决这个问题?

不能 现在科技的极限就到这了
回复

使用道具 举报

     
发表于 2025-3-14 13:43 | 显示全部楼层
赞美太阳啊 发表于 2025-3-14 12:01
请教一下,有没有比较简单易用的工具,比如只要输入特定的api,就可以像使用网页版一样使用这种满血版的ds ...

一般第三方工具都是在你上下文要满了的时候 自动帮你截掉最初的一两轮
回复

使用道具 举报

     
发表于 2025-3-14 14:05 | 显示全部楼层
赞美太阳啊 发表于 2025-3-14 07:26
这个用的是什么版本的工具?

这个是 硅基流动 SiliconFlow 的
回复

使用道具 举报

     
发表于 2025-3-14 15:46 | 显示全部楼层
赞美太阳啊 发表于 2025-3-14 13:03
本地部署的r1模型,能不能解决这个问题?

不能,公开发布的R1就是8K输出

要么后续新模型解决,当下你R1本地部署也就解决服务器卡顿问题而已
回复

使用道具 举报

     
发表于 2025-3-20 08:41 | 显示全部楼层
现在开始尝试用Deepseek来搞开发,发现就是把原来用于GPT的代码换个模型而已。
不过看起来目前Deepseek还缺少一些功能的支持,比如说不支持Assistants和Function call,但这些之前有些也只是OpenAI官方的大模型才支持的,只能等后续更新了。不过还好LangChain是支持的,虽说我现在只是写程序自己玩。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2025-4-20 16:47 , Processed in 0.100824 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表