找回密码
 立即注册
搜索
查看: 2117|回复: 14

[怀旧] RemakeMGS2时候, 往里面真的塞一个LLM驱动的上校, 应该很MGS2味

[复制链接]
     
发表于 2026-4-4 09:32 | 显示全部楼层 |阅读模式
为了防止偏离原有的剧本, 可以让LLM在每个对话最后自由发挥一句, 或者触发什么脚本后给雷电主动发消息然后挂断. 一开始只在对话最后自由发挥, 然后比重越来越大. 在和Rosemary的存档对话时候, 上校也会来最后插一句嘴, 直到某一时刻, 存档对话里Rosemary都是AI驱动的, Rosemary和雷电的脚本对话->AI上校回复->AIRosemary回复, 可谓是非常MGS2味了.
回复

使用道具 举报

     
发表于 2026-4-4 09:52 | 显示全部楼层
那么问题来了,token的钱怎么算....
回复

使用道具 举报

     
 楼主| 发表于 2026-4-4 09:59 | 显示全部楼层
wangxu9909 发表于 2026-4-4 09:52
那么问题来了,token的钱怎么算....

本地运行就够了, 游戏对话到要介入时候腾出一定内存载入进GPU里跑完这两句对话, 然后再丢回SSD里.
回复

使用道具 举报

     
发表于 2026-4-4 10:20 | 显示全部楼层
爱国者.skill是吧
回复

使用道具 举报

     
发表于 2026-4-4 11:06 | 显示全部楼层
泰坦失足 发表于 2026-4-4 09:59
本地运行就够了, 游戏对话到要介入时候腾出一定内存载入进GPU里跑完这两句对话, 然后再丢回SSD里. ...

主机玩家别玩是吧
回复

使用道具 举报

     
发表于 2026-4-4 11:14 | 显示全部楼层
这个需求本质上不是“普通聊天模型”,而是多角色调度 + 长上下文 + 持续生成控制。
那么一般的普通本地部署根本做不到
首先需要中等偏上的基础对话能力,然后还要有长上下文记忆,最后还要有多角色一致性。
最低端的7B模型达不到你的要求,显存需要8个G左右。
满足你的需求的最低水平的模型13B的显存大概需要20G。
问一下你的显卡显存多少?
回复

使用道具 举报

     
 楼主| 发表于 2026-4-4 11:45 | 显示全部楼层
雲夢淵澤 发表于 2026-4-4 11:14
这个需求本质上不是“普通聊天模型”,而是多角色调度 + 长上下文 + 持续生成控制。
那么一般的普通本地部 ...

就在原作的codec对话最后冒出来多说一两句新版的, 哪需要那么大上下文, 而且4B也已经会说人话
回复

使用道具 举报

     
发表于 2026-4-4 15:57 | 显示全部楼层
本地运行LLM对于统一规格的主机有一定可能实现但是得要下个世代看厂家愿不愿意放开接口,但是对于性能参差不齐的PC来说上限很高,下限是完全无法运行,开发这个功能玩家得到的乐趣挺一般的

最近玩了一段时间酒馆我觉得因为龙虾潮来了,LLM玩AI RP消耗的token完全比不上龙虾消耗的,现在AI coding强了,对话死人感也更重了
回复

使用道具 举报

     
发表于 2026-4-4 23:00 来自手机 | 显示全部楼层
往里塞十万组对话就行了,没必要现算
以及 la li lu le lo

—— 来自 鹅球 v3.5.99
回复

使用道具 举报

发表于 2026-4-5 00:11 | 显示全部楼层
逆城的风 发表于 2026-4-4 23:00
往里塞十万组对话就行了,没必要现算
以及 la li lu le lo

往里塞十万组对话就行了+1
回复

使用道具 举报

     
发表于 2026-4-5 03:10 | 显示全部楼层
这需求完全不需要实时生成,搞一大堆放那就是.
回复

使用道具 举报

     
发表于 2026-4-5 07:19 | 显示全部楼层
雲夢淵澤 发表于 2026-4-4 11:14
这个需求本质上不是“普通聊天模型”,而是多角色调度 + 长上下文 + 持续生成控制。
那么一般的普通本地部 ...

13B量化之后用不了那么多
如果只是生成一两句话的话应该也用不到太大的模型
回复

使用道具 举报

     
发表于 2026-4-5 08:52 | 显示全部楼层
RTLordCaptain 发表于 2026-4-5 07:19
13B量化之后用不了那么多
如果只是生成一两句话的话应该也用不到太大的模型 ...

是这样吗,那看来我是孤陋寡闻了
回复

使用道具 举报

     
发表于 2026-4-5 12:02 | 显示全部楼层
雲夢淵澤 发表于 2026-4-5 08:52
是这样吗,那看来我是孤陋寡闻了

13B如果Q8量化的话也不太可能到20G,可能15/6G左右,一般本地单显卡LLM也不太可能用Q8以上,性价比太低了
如果Q4的话可能10G左右了。当然PS5一共16G还得跑游戏用再小的模型显存也不一定能够,要弄的话得想办法先把场景数据全都清空。或者等PS6
回复

使用道具 举报

     
发表于 2026-4-5 12:07 来自手机 | 显示全部楼层
雷电:什么,你究竟是谁?
上校:我是克劳德。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2026-4-21 20:55 , Processed in 0.039507 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表