stable diffusion部署和使用遇到的一些问题求解
由于设备限制,只能在Win10下WSL2部署1,CUDA应该装什么版本?
wsl linux(Arch)安装后,nvidia-smi显示CUDA为12.6
看到有说法不能安装高于此的版本,但实际上我直接装了(Arch)仓库的13.0和对应的cnDNN,似乎也能工作
我看到Nvidia官方有WSL-Ubuntu的专用
不知道和发行版仓库里的有什么区别
2,SDXL模型无法加载
首先,SD能工作
自带模型和majicMIX是可以正常运行的
但是SDXL不行。我把下载的模型和vae放到对应的地方,界面有显示,但是选中加载后会失败跳回上一次用的模型
从后台看是在加载vae的最后出了问题
PS:
另外有同好或者交流群吗
1. 在WSL下面装可能引入了不必要的复杂度,Windows下直接装可能会好一点吧,不管是webui还是comfy
2. CUDA版本是输入 nvcc -V(记得大写)给出的版本,nvidia-smi 给出的版本是当前驱动支持的最高版本,具体应该装哪个版本看项目的文档。
3. 加载失败最好是把控制台输出给出来看一下,不然不好判断 Jumbohard 发表于 2025-11-13 15:22
1. 在WSL下面装可能引入了不必要的复杂度,Windows下直接装可能会好一点吧,不管是webui还是comfy
2. CUDA ...THX
1,限于条件只能在WSL里
2,nvidia-smi 12.6,nvcc -V 13.0,确实能工作,我目前认为只是没遇到状况
3,错误后面后续就是各种 weight 的列表
Loading VAE weights found near the checkpoint: /home/eli/stable-diffusion-webui/models/VAE/sd_xl_base_1.0_0.9vae.safetensors
changing setting sd_model_checkpoint to sd_xl_base_1.0.safetensors : RuntimeError
Traceback (most recent call last):
File "/home/eli/stable-diffusion-webui/modules/options.py", line 165, in set
option.onchange()
File "/home/eli/stable-diffusion-webui/modules/call_queue.py", line 14, in f
res = func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "/home/eli/stable-diffusion-webui/modules/initialize_util.py", line 181, in <lambda>
shared.opts.onchange("sd_model_checkpoint", wrap_queued_call(lambda: sd_models.reload_model_weights()), call=False)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/eli/stable-diffusion-webui/modules/sd_models.py", line 977, in reload_model_weights
load_model(checkpoint_info, already_loaded_state_dict=state_dict)
File "/home/eli/stable-diffusion-webui/modules/sd_models.py", line 845, in load_model
load_model_weights(sd_model, checkpoint_info, state_dict, timer)
File "/home/eli/stable-diffusion-webui/modules/sd_models.py", line 538, in load_model_weights
sd_vae.load_vae(model, vae_file, vae_source)
File "/home/eli/stable-diffusion-webui/modules/sd_vae.py", line 212, in load_vae
_load_vae_dict(model, vae_dict_1)
File "/home/eli/stable-diffusion-webui/modules/sd_vae.py", line 239, in _load_vae_dict
model.first_stage_model.load_state_dict(vae_dict_1)
File "/home/eli/stable-diffusion-webui/modules/sd_disable_initialization.py", line 223, in <lambda>
module_load_state_dict = self.replace(torch.nn.Module, 'load_state_dict', lambda *args, **kwargs: load_state_dict(module_load_state_dict
, *args, **kwargs))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
^^^^^^^^^^^^^^^^^^
File "/home/eli/stable-diffusion-webui/modules/sd_disable_initialization.py", line 221, in load_state_dict
original(module, state_dict, strict=strict)
File "/home/eli/stable-diffusion-webui/venv/lib/python3.11/site-packages/torch/nn/modules/module.py", line 2152, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for AutoencoderKLInferenceWrapper:
Missing key(s) in state_dict: "encoder.conv_in.weight", "encoder.conv_in.bias", "encoder.down.0.block.0.norm1.weight", "encoder.down
.0.block.0.norm1.bias", "encoder.down.0.block.0.conv1.weight", "encoder.down.0.block.0.conv1.bias", "encoder.down.0.block.0.norm2.weight", "
encoder.down.0.block.0.norm2.bias", "encoder.down.0.block.0.conv2.weight", "encoder.down.0.block.0.conv2.bias", "encoder.down.0.block.1.norm
1.weight", thegodra 发表于 2025-11-13 15:38
THX
1,限于条件只能在WSL里
2,nvidia-smi 12.6,nvcc -V 13.0,确实能工作,我目前认为只是没遇到状况
看起来像是VAE和Checkpoint不匹配?你确定VAE是SDXL的吗?
*:很多SDXL的检查点(光辉系啊小马啊这些的)是有内建的VAE的,如果用WebUI的话直接选择自动加载VAE就行 comfyui整合包了解一下 如果只是试着玩的话, 装秋叶整合包
如果要认真跑, 装comfyui Jumbohard 发表于 2025-11-13 19:02
看起来像是VAE和Checkpoint不匹配?你确定VAE是SDXL的吗?
*:很多SDXL的检查点(光辉系啊小马啊这些的) ...
最后发现的确是VAE的问题
XL里的VAE并不能用,需要额外sdxl-vae才行
刚开始捡起来,很多概念还不清楚 处男鉴黄师 发表于 2025-11-13 19:23
comfyui整合包了解一下
已经进化到新的了工具了吗 Onelooker 发表于 2025-11-13 19:44
如果只是试着玩的话, 装秋叶整合包
如果要认真跑, 装comfyui
限于条件,需要避免影响宿主系统
秋叶整合包的模型可以提取出来,避免四处去下载
comfyui更高阶吗? thegodra 发表于 2025-11-14 10:53
限于条件,需要避免影响宿主系统
秋叶整合包的模型可以提取出来,避免四处去下载
理论上出图更灵活对新模型支持更好, 建立在你有相关需求上 thegodra 发表于 2025-11-14 10:53
限于条件,需要避免影响宿主系统
秋叶整合包的模型可以提取出来,避免四处去下载
WebUI(哪怕是forge)已经基本在事实上停止开发,和comfy相比两者的功能性已经不在一个级别上了。Comfy工作流基本已经是通用标准,新技术和新模型出来基本都会发布对应的节点和工作流。
但话又说回来,如果只是随便画画那comfy的学习曲线是有点陡峭的。取决于你想要用AI画图干什么,如果是自娱自乐享受文生图抽卡的快乐那WebUI也够,假如你是要给小说公众号配图等等更严肃的场景,我建议学一下用comfy。 Jumbohard 发表于 2025-11-14 11:25
WebUI(哪怕是forge)已经基本在事实上停止开发,和comfy相比两者的功能性已经不在一个级别上了。Comfy工 ...
请教一下comfy有什么好的学习资料吗 sdxl我从来没用过额外的vae,模型都自带了直接连模型的用 大多数人都只对具体场景感兴趣,我建议去玩libulibu或者星流算了 iam_hcl 发表于 2025-11-14 15:01
请教一下comfy有什么好的学习资料吗
不太清楚虽然嘴上振振有词的但是我也是属于在webui里面抽卡的那类人
—— 来自 meizu MEIZU 21 Pro, Android 15, 鹅球 v3.5.99 iam_hcl 发表于 2025-11-14 15:01
请教一下comfy有什么好的学习资料吗
B站虽然99%都是引流卖课的,不过学个入门也够了,主要了解一下几种基本工作流怎么连,剩下不懂的直接问AI 本帖最后由 diohanmilton 于 2025-11-14 20:35 编辑
是amd?目前可以用zluda转译cuda,脱开wsl使用纯win环境。webui和comfyui都可以用秋叶整合包启动
—— 来自 HONOR PGT-AN10, Android 15, 鹅球 v3.5.99-alpha 本帖最后由 流缨 于 2025-11-14 20:56 编辑
comfyui现在有官方版,直接下就行,非常傻瓜了
工作流就是个json,B站之类照抄了改就行,用多了会发现比webui好操作的多
建议试试comfyui吧,工作流模式还是方便的 iam_hcl 发表于 2025-11-14 15:01
请教一下comfy有什么好的学习资料吗
b站找些简单易懂的工作流(有些流特别乱根本看不懂),然后把里边所有节点名称一个个问ai是干什么的
—— 来自 vivo V2024A, Android 13, 鹅球 v3.5.99-alpha thegodra 发表于 2025-11-13 15:38
THX
1,限于条件只能在WSL里
2,nvidia-smi 12.6,nvcc -V 13.0,确实能工作,我目前认为只是没遇到状况
花20块开通个glm4.6,然后下载vscode打开 comfyui整合包相应文件夹,在kilocode或者roocode里用debug模式实时调试呗,反正都是python,它甚至能帮你写节点,而且glm官方提供网络搜索的mcp,充十块钱起码能搜索半个月 原生Arch,啥都用的最新的,跑挺过好的
—— 来自 HONOR PTP-AN10, Android 15, 鹅球 v3.5.99 最烦那种弄得花里胡哨的工作流,不都是基于模型+素材——》采样——》合并的流程吗 mitzvah 发表于 2025-11-16 10:00
花20块开通个glm4.6,然后下载vscode打开 comfyui整合包相应文件夹,在kilocode或者roocode里用debug模式 ...
新名词太多了,我out了,得赶紧补补 calmer 发表于 2025-11-16 12:03
原生Arch,啥都用的最新的,跑挺过好的
—— 来自 HONOR PTP-AN10, Android 15, 鹅球 v3.5.99 ...
NICE
btw,补丁 https://bbs.nga.cn/read.php?tid=45493839&_fp=2
楼主你如果想用webui来尝鲜
那么这里有个办法给你
这个是别人做的forge
可以用各种新模型
—— 来自 鹅球 v3.3.96 本帖最后由 mitzvah 于 2025-11-17 20:51 编辑
thegodra 发表于 2025-11-17 14:32
新名词太多了,我out了,得赶紧补补
glm4.6这个ai实测python基本可以取代绝大多数普通人的操作了,comfyui基本就是python写的,配合vscode的roocode,kilocode插件,再使用glm官方提供的网络搜索插件,基本上所有的报错都能给你修好,哪里不懂立刻请教立刻给你从底层深入浅出的讲透。甚至可以帮你修改出错的插件或者按照自己的需求自己diy插件
wsl环境下可以使用vscode吧?那就在vscode里装上roocode,或者kilocode,连上官网的api,然后在vscode里像对待软件项目那样打开comfyui的文件夹就可以立刻爽玩了
比webui简单,爽快太多了!比都没法比!
comfyui的功能是依靠工作流完成的,b站一堆这方面的视频,基本都提供给你工作流下载,但是模型要到网盘下载,经常还会报错,而且工作流又是一大陀玩意看得让人头昏
但 有了glm4.6加上官方搜索mcp,有bug,直接把日志信息扔给ai,ai就会自动帮你修错,自动写补丁,自动测试全套流程自动完成,依赖没有?不要紧,自动帮你安装!模型没有?你问他模型到哪个国内镜像下载他也能给找到
下来一个工作流,如果你不知道这玩意怎么用,直接让它分析工作流的json文件即可自动生成分析报告,手把手教你像这样的:
不要说glm4.6,就是本地部署的glm4.5air q4,我前两天测试,都能从零开始自动搓出一个介绍洛伦兹吸引子教学程序,有完整的3dui动画系统和轨道演示功能,跟马云家的qwen比宛如云泥
iam_hcl 发表于 2025-11-14 15:01
请教一下comfy有什么好的学习资料吗
Gemini,AI绘图相关的问题我都是问AI助手,又新又好 https://github.com/Aaalice233/ComfyUI-Aaalice-Pack-Unpack-Tool用这个吧。 cuda高版本基本上兼容低版本
页:
[1]