泰坦失足 发表于 2026-4-4 09:32

RemakeMGS2时候, 往里面真的塞一个LLM驱动的上校, 应该很MGS2味

为了防止偏离原有的剧本, 可以让LLM在每个对话最后自由发挥一句, 或者触发什么脚本后给雷电主动发消息然后挂断. 一开始只在对话最后自由发挥, 然后比重越来越大. 在和Rosemary的存档对话时候, 上校也会来最后插一句嘴, 直到某一时刻, 存档对话里Rosemary都是AI驱动的, Rosemary和雷电的脚本对话->AI上校回复->AIRosemary回复, 可谓是非常MGS2味了.

wangxu9909 发表于 2026-4-4 09:52

那么问题来了,token的钱怎么算....

泰坦失足 发表于 2026-4-4 09:59

wangxu9909 发表于 2026-4-4 09:52
那么问题来了,token的钱怎么算....

本地运行就够了, 游戏对话到要介入时候腾出一定内存载入进GPU里跑完这两句对话, 然后再丢回SSD里.

hugosol 发表于 2026-4-4 10:20

爱国者.skill是吧

Sopp 发表于 2026-4-4 11:06

泰坦失足 发表于 2026-4-4 09:59
本地运行就够了, 游戏对话到要介入时候腾出一定内存载入进GPU里跑完这两句对话, 然后再丢回SSD里. ...

主机玩家别玩是吧

雲夢淵澤 发表于 2026-4-4 11:14

这个需求本质上不是“普通聊天模型”,而是多角色调度 + 长上下文 + 持续生成控制。
那么一般的普通本地部署根本做不到
首先需要中等偏上的基础对话能力,然后还要有长上下文记忆,最后还要有多角色一致性。
最低端的7B模型达不到你的要求,显存需要8个G左右。
满足你的需求的最低水平的模型13B的显存大概需要20G。
问一下你的显卡显存多少?

泰坦失足 发表于 2026-4-4 11:45

雲夢淵澤 发表于 2026-4-4 11:14
这个需求本质上不是“普通聊天模型”,而是多角色调度 + 长上下文 + 持续生成控制。
那么一般的普通本地部 ...

就在原作的codec对话最后冒出来多说一两句新版的, 哪需要那么大上下文, 而且4B也已经会说人话

clyde-wang 发表于 2026-4-4 15:57

本地运行LLM对于统一规格的主机有一定可能实现但是得要下个世代看厂家愿不愿意放开接口,但是对于性能参差不齐的PC来说上限很高,下限是完全无法运行,开发这个功能玩家得到的乐趣挺一般的

最近玩了一段时间酒馆我觉得因为龙虾潮来了,LLM玩AI RP消耗的token完全比不上龙虾消耗的,现在AI coding强了,对话死人感也更重了

逆城的风 发表于 2026-4-4 23:00

往里塞十万组对话就行了,没必要现算
以及 la li lu le lo

—— 来自 鹅球 v3.5.99

舌怪 发表于 2026-4-5 00:11

逆城的风 发表于 2026-4-4 23:00
往里塞十万组对话就行了,没必要现算
以及 la li lu le lo


往里塞十万组对话就行了+1

oyss 发表于 2026-4-5 03:10

这需求完全不需要实时生成,搞一大堆放那就是.

RTLordCaptain 发表于 2026-4-5 07:19

雲夢淵澤 发表于 2026-4-4 11:14
这个需求本质上不是“普通聊天模型”,而是多角色调度 + 长上下文 + 持续生成控制。
那么一般的普通本地部 ...

13B量化之后用不了那么多
如果只是生成一两句话的话应该也用不到太大的模型

雲夢淵澤 发表于 2026-4-5 08:52

RTLordCaptain 发表于 2026-4-5 07:19
13B量化之后用不了那么多
如果只是生成一两句话的话应该也用不到太大的模型 ...

是这样吗,那看来我是孤陋寡闻了

RTLordCaptain 发表于 2026-4-5 12:02

雲夢淵澤 发表于 2026-4-5 08:52
是这样吗,那看来我是孤陋寡闻了

13B如果Q8量化的话也不太可能到20G,可能15/6G左右,一般本地单显卡LLM也不太可能用Q8以上,性价比太低了
如果Q4的话可能10G左右了。当然PS5一共16G还得跑游戏用再小的模型显存也不一定能够,要弄的话得想办法先把场景数据全都清空。或者等PS6

我要写个惨字 发表于 2026-4-5 12:07

雷电:什么,你究竟是谁?
上校:我是克劳德。
页: [1]
查看完整版本: RemakeMGS2时候, 往里面真的塞一个LLM驱动的上校, 应该很MGS2味