找回密码
 立即注册
查看: 2321|回复: 12

[软件] 日语翻译游戏本地搭SakuraLLM,那么英语呢?

[复制链接]
     
发表于 2025-2-26 09:39 来自手机 | 显示全部楼层 |阅读模式
本帖最后由 zmw_831110 于 2025-2-26 09:41 编辑

日语翻译游戏本地搭SakuraLLM,那么英语呢?

本地可以搭什么翻译模型?
求推荐组合,就翻翻AVG(现在叫欧美SLG?)

现在用的MTool,免费的是Bing,是不是每个月充50用他的GPT 3.5最方便
回复

使用道具 举报

     
发表于 2025-2-26 09:43 | 显示全部楼层
找个有邀请活动的平台请位d老师不就好了

我自己在用火山的
回复

使用道具 举报

     
发表于 2025-2-26 09:46 | 显示全部楼层
GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版
回复

使用道具 举报

     
发表于 2025-2-26 09:47 | 显示全部楼层
最近觉得沉浸式翻译里的智谱GLM挺好用的,不知道有没有API
回复

使用道具 举报

     
 楼主| 发表于 2025-2-26 09:55 | 显示全部楼层
jie2000 发表于 2025-2-26 09:43
找个有邀请活动的平台请位d老师不就好了

我自己在用火山的

之前也看过LunaTranslator,感觉怎么和之前的那个什么团子翻译有点像

搜了下火山 API,每个月200W字符免费额度,英文的话也就2MB都不到...肯定不够用啊

有没有可以本地部署的英译中翻译模型?
显卡是16GB显存
回复

使用道具 举报

     
 楼主| 发表于 2025-2-26 10:09 | 显示全部楼层
泰坦失足 发表于 2025-2-26 09:46
GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版 ...

有Windows下可用的
翻译工具(调用本地翻译模型)+windows翻译模型本地部署 的教程么?

刚才我搜了一下,感觉16GB显存玩不起这个模型啊...(这个不是才7B么,怎么要求那么高)
http://www.owin.work/archives/de ... l-qwen-7b-de-bu-shu
DeepSeek-R1-Distill-Qwen-7B的部署
2025年01月29日 | AI 0 条评论
硬件要求
最低配置(可运行但可能较慢)

CPU: 16 核以上
内存: 32GB RAM
显卡: 至少 24GB 显存(如 RTX 3090、4090 或 A5000)
存储: 至少 50GB 可用空间(模型权重文件较大)
推荐配置

回复

使用道具 举报

     
发表于 2025-2-26 10:10 | 显示全部楼层
千问2.5就行

评分

参与人数 1战斗力 +2 收起 理由
zmw_831110 + 2 感谢,试下来的确qwen2.5最合适

查看全部评分

回复

使用道具 举报

     
发表于 2025-2-26 10:19 | 显示全部楼层
试试gemma-2-27b-it-exl2-4bpw?
哦~你16G啊~
gemma-2-9b-it-Q8_0-f16
回复

使用道具 举报

     
发表于 2025-2-26 10:26 | 显示全部楼层
qwen系列遇见4chan脏话的时候不会跳过也不会不翻译,而是输出什么「抱歉,不能……侮辱性……」
回复

使用道具 举报

     
发表于 2025-2-26 10:29 | 显示全部楼层
zmw_831110 发表于 2025-2-26 10:09
有Windows下可用的
翻译工具(调用本地翻译模型)+windows翻译模型本地部署 的教程么?

那个是没量化的,你用ollama pull一个下来,默认是量化的。然后ollama 部署为本地openai like server。至于怎么用,我是luna翻译器选择接入本地的类openai服务器接口

评分

参与人数 1战斗力 +2 收起 理由
zmw_831110 + 2 明白了,感谢

查看全部评分

回复

使用道具 举报

     
发表于 2025-2-26 11:30 | 显示全部楼层
翻译就千问,实际sakura也是基于千问训练的。

论坛助手,iPhone

评分

参与人数 1战斗力 +2 收起 理由
zmw_831110 + 2 的确可以

查看全部评分

回复

使用道具 举报

     
 楼主| 发表于 2025-2-26 16:43 | 显示全部楼层
装好ollama
直接这个命令
ollama run qwen2.5:14b
LunaTranslator就能用了,效果还不错


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

     
发表于 2025-2-27 09:44 | 显示全部楼层
泰坦失足 发表于 2025-2-26 09:46
GPT3.5哪年的事了, deepseek-distilled-qwen-7B/32B 试试看吧. huggingface还有各种对不同任务的微调版 ...

开推理太慢了,不适合翻译
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2025-4-28 18:16 , Processed in 0.072307 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表