zmw_831110 发表于 2025-2-26 09:39

日语翻译游戏本地搭SakuraLLM,那么英语呢?

本帖最后由 zmw_831110 于 2025-2-26 09:41 编辑

日语翻译游戏本地搭SakuraLLM,那么英语呢?

本地可以搭什么翻译模型?
求推荐组合,就翻翻AVG(现在叫欧美SLG?)

现在用的MTool,免费的是Bing,是不是每个月充50用他的GPT 3.5最方便

jie2000 发表于 2025-2-26 09:43

找个有邀请活动的平台请位d老师不就好了

我自己在用火山的

泰坦失足 发表于 2025-2-26 09:46

GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版

Rarity5 发表于 2025-2-26 09:47

最近觉得沉浸式翻译里的智谱GLM挺好用的,不知道有没有API

zmw_831110 发表于 2025-2-26 09:55

jie2000 发表于 2025-2-26 09:43
找个有邀请活动的平台请位d老师不就好了

我自己在用火山的

之前也看过LunaTranslator,感觉怎么和之前的那个什么团子翻译有点像

搜了下火山 API,每个月200W字符免费额度,英文的话也就2MB都不到...肯定不够用啊

有没有可以本地部署的英译中翻译模型?
显卡是16GB显存

zmw_831110 发表于 2025-2-26 10:09

泰坦失足 发表于 2025-2-26 09:46
GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版 ...
有Windows下可用的
翻译工具(调用本地翻译模型)+windows翻译模型本地部署 的教程么?

刚才我搜了一下,感觉16GB显存玩不起这个模型啊...(这个不是才7B么,怎么要求那么高)
http://www.owin.work/archives/de ... l-qwen-7b-de-bu-shu

DeepSeek-R1-Distill-Qwen-7B的部署
2025年01月29日 | AI 0 条评论
硬件要求
最低配置(可运行但可能较慢)

CPU: 16 核以上
内存: 32GB RAM
显卡: 至少 24GB 显存(如 RTX 3090、4090 或 A5000)
存储: 至少 50GB 可用空间(模型权重文件较大)
推荐配置

startraveller 发表于 2025-2-26 10:10

千问2.5就行

塔奇克马 发表于 2025-2-26 10:19

试试gemma-2-27b-it-exl2-4bpw?
哦~你16G啊~
gemma-2-9b-it-Q8_0-f16

Nanachi 发表于 2025-2-26 10:26

qwen系列遇见4chan脏话的时候不会跳过也不会不翻译,而是输出什么「抱歉,不能……侮辱性……」

泰坦失足 发表于 2025-2-26 10:29

zmw_831110 发表于 2025-2-26 10:09
有Windows下可用的
翻译工具(调用本地翻译模型)+windows翻译模型本地部署 的教程么?



那个是没量化的,你用ollama pull一个下来,默认是量化的。然后ollama 部署为本地openai like server。至于怎么用,我是luna翻译器选择接入本地的类openai服务器接口

defer 发表于 2025-2-26 11:30

翻译就千问,实际sakura也是基于千问训练的。

论坛助手,iPhone

zmw_831110 发表于 2025-2-26 16:43

装好ollama
直接这个命令
ollama run qwen2.5:14b
LunaTranslator就能用了,效果还不错


gnihton314 发表于 2025-2-27 09:44

泰坦失足 发表于 2025-2-26 09:46
GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版 ...

开推理太慢了,不适合翻译
页: [1]
查看完整版本: 日语翻译游戏本地搭SakuraLLM,那么英语呢?