日语翻译游戏本地搭SakuraLLM,那么英语呢?
本帖最后由 zmw_831110 于 2025-2-26 09:41 编辑日语翻译游戏本地搭SakuraLLM,那么英语呢?
本地可以搭什么翻译模型?
求推荐组合,就翻翻AVG(现在叫欧美SLG?)
现在用的MTool,免费的是Bing,是不是每个月充50用他的GPT 3.5最方便 找个有邀请活动的平台请位d老师不就好了
我自己在用火山的 GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版 最近觉得沉浸式翻译里的智谱GLM挺好用的,不知道有没有API jie2000 发表于 2025-2-26 09:43
找个有邀请活动的平台请位d老师不就好了
我自己在用火山的
之前也看过LunaTranslator,感觉怎么和之前的那个什么团子翻译有点像
搜了下火山 API,每个月200W字符免费额度,英文的话也就2MB都不到...肯定不够用啊
有没有可以本地部署的英译中翻译模型?
显卡是16GB显存 泰坦失足 发表于 2025-2-26 09:46
GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版 ...
有Windows下可用的
翻译工具(调用本地翻译模型)+windows翻译模型本地部署 的教程么?
刚才我搜了一下,感觉16GB显存玩不起这个模型啊...(这个不是才7B么,怎么要求那么高)
http://www.owin.work/archives/de ... l-qwen-7b-de-bu-shu
DeepSeek-R1-Distill-Qwen-7B的部署
2025年01月29日 | AI 0 条评论
硬件要求
最低配置(可运行但可能较慢)
CPU: 16 核以上
内存: 32GB RAM
显卡: 至少 24GB 显存(如 RTX 3090、4090 或 A5000)
存储: 至少 50GB 可用空间(模型权重文件较大)
推荐配置
千问2.5就行 试试gemma-2-27b-it-exl2-4bpw?
哦~你16G啊~
gemma-2-9b-it-Q8_0-f16 qwen系列遇见4chan脏话的时候不会跳过也不会不翻译,而是输出什么「抱歉,不能……侮辱性……」 zmw_831110 发表于 2025-2-26 10:09
有Windows下可用的
翻译工具(调用本地翻译模型)+windows翻译模型本地部署 的教程么?
那个是没量化的,你用ollama pull一个下来,默认是量化的。然后ollama 部署为本地openai like server。至于怎么用,我是luna翻译器选择接入本地的类openai服务器接口 翻译就千问,实际sakura也是基于千问训练的。
论坛助手,iPhone 装好ollama
直接这个命令
ollama run qwen2.5:14b
LunaTranslator就能用了,效果还不错
泰坦失足 发表于 2025-2-26 09:46
GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版 ...
开推理太慢了,不适合翻译
页:
[1]