cym887 发表于 2025-11-30 15:56

本帖最后由 cym887 于 2025-11-30 16:13 编辑

才玩qwen 2509没两天,感觉不如sdxl, 就有新的出来了? qwen的涩涩不行不加lora画出来的器官奇形怪状的 lora又少

cym887 发表于 2025-11-30 16:20

有量化的clip么 8G也太大了

7776169 发表于 2025-11-30 16:34

cym887 发表于 2025-11-30 16:20
有量化的clip么 8G也太大了

我前面发了啊(

cym887 发表于 2025-11-30 16:36

7776169 发表于 2025-11-30 16:34
我前面发了啊(

没注意到 只下了你发的大模型 (

cym887 发表于 2025-11-30 17:14

本帖最后由 cym887 于 2025-11-30 17:26 编辑

7776169 发表于 2025-11-30 16:34
我前面发了啊(
CLIPLoaderGGUF
Unexpected text model architecture type in GGUF file: 'qwen3'大佬这咋整啊 工作流能发一个么 感觉是我的加载器节点不太行没有选项 我傻逼了 忘记更新GGUF

7776169 发表于 2025-11-30 17:39

cym887 发表于 2025-11-30 17:14
CLIPLoaderGGUF
Unexpected text model architecture type in GGUF file: 'qwen3'大佬这咋整啊 工作 ...

我用FORGE玩的。。。。。。。。。。
无法帮忙(

mp5 发表于 2025-11-30 17:44

https://p.sda1.dev/29/855d98d039cf0866ff9ccf90b17768e2/ComfyUI_temp_qeyle_00002_.jpg
试了下,人脸过拟合的问题挺严重的
但是生成速度完胜qwen和flux,16G显存能做到40秒左右一张1920的图

mp5 发表于 2025-11-30 17:54

cym887 发表于 2025-11-30 15:56
才玩qwen 2509没两天,感觉不如sdxl, 就有新的出来了? qwen的涩涩不行不加lora画出来的器官奇形怪状的 lora ...

qwen有限制的,但是wan没有
不少老外用wan生成1帧视频的方法弄涩图

cym887 发表于 2025-11-30 18:35

mp5 发表于 2025-11-30 17:54
qwen有限制的,但是wan没有
不少老外用wan生成1帧视频的方法弄涩图
wan不行 太卡了 画一张图十几二十分钟.

cym887 发表于 2025-11-30 20:04

感觉底模不行 没有lora 生成器官还是奇形怪状的.

妄想中毒 发表于 2025-12-1 16:03

借楼问问,comfyui0.3.5以后的版本运行速度为什么整体都变慢了,同一个sdxl工作流0.3.5以上版本第一次加载模型速度变特别慢,k采样器预览图不能正常显示,sd放大节点运行速度直接减半,搞得我完全不想更新新版本

mitzvah 发表于 2025-12-1 16:19

妄想中毒 发表于 2025-12-1 16:03
借楼问问,comfyui0.3.5以后的版本运行速度为什么整体都变慢了,同一个sdxl工作流0.3.5以上版本第一次加载 ...

重装整合包,大幅度变慢我也在升级版本后遭遇过,结论是重新下一个干净的comfyui整合包,一次更新到最新版,然后把节点模型拷贝到新的整合包内,自动重置运行环境——》一切恢复正常

妄想中毒 发表于 2025-12-1 16:59

本帖最后由 妄想中毒 于 2025-12-1 17:00 编辑

mitzvah 发表于 2025-12-1 16:19
重装整合包,大幅度变慢我也在升级版本后遭遇过,结论是重新下一个干净的comfyui整合包,一次更新到最新 ...

试过了,装的秋叶的,下了一个新包把老包节点模型移过去更新新版本重新配置环境,还专门把手动下载的节点替换成github上的最新版本或者直接删掉,还是卡,还有别的整合包推荐吗

sellboy 发表于 2025-12-1 17:17

开源的,就等着调教出nsfw专精吧

mitzvah 发表于 2025-12-1 17:53

本帖最后由 mitzvah 于 2025-12-1 18:15 编辑

妄想中毒 发表于 2025-12-1 16:59
试过了,装的秋叶的,下了一个新包把老包节点模型移过去更新新版本重新配置环境,还专门把手动下载的节点 ...
先更新到最新版再拷贝节点

拷贝节点后会自动安装相应的运行环境,你的运行环境已经固定了再升级那就跟以前没区别了,一定要先在整合包的最初形态一步到位完成升级后再考虑节点移植


下载新的干净秋叶包--启动器启动,版本号拉到最新,关闭gui,拷贝老整合包的节点,再次启动,自动安装依赖,速度恢复正常


comfyui的自动升级就是废的,升级一次就会在运行环境中产生大量垃圾,尤其是你装了一堆节点的情况下


不要用官方的节点管理工具,直接拷贝结点,官方的节点管理工具就是屎,我只用来定位网址

妄想中毒 发表于 2025-12-1 21:27

mitzvah 发表于 2025-12-1 17:53
先更新到最新版再拷贝节点

拷贝节点后会自动安装相应的运行环境,你的运行环境已经固定了再升级那就跟以 ...
试了一下还是不行,用新包升级到最新版本再把节点文件夹复制过去安装依赖,第一次载入模型和生成速度依然巨慢,面部细化节点载入和生成要花50秒,老版本只需要不到20秒,SD放大节点2K到4K以前70-90秒,现在140-150秒

mitzvah 发表于 2025-12-1 21:38

妄想中毒 发表于 2025-12-1 21:27
试了一下还是不行,用新包升级到最新版本再把节点文件夹复制过去安装依赖,第一次载入模型和生成速度依然 ...

我反正速度是恢复了,可能有某个节点拖慢了速度,最终手段,装vscode,装kilocode插件,在vscode里打开整合包文件夹,然后找个glm4.6或者同等级的ai api, 在debug模式下描述问题,然后让ai在可能影响速度的地方加入调试信息,再让ai根据调试信息分析问题所在

mitzvah 发表于 2025-12-1 21:44

glm4.6这一等级的ai 在是可以帮助你解读终端信息的,你这种情况八成终端信息就有足够提示了,如果没有让ai帮你写节点修节点的需求,那直接找个网页版k2 thinking,把终端的信息拷进去问也能解决大半

处男鉴黄师 发表于 2025-12-1 23:28

2次元画风不如wan2.2华丽,色彩饱和度也低一些。不过6B体量训练起来资源需求更友好,期待有土豪砸钱炼光辉版






tonyunreal 发表于 2025-12-2 00:26

本帖最后由 tonyunreal 于 2025-12-2 17:24 编辑

借楼上的图测试一下lora

1. 无lora直出
https://p.sda1.dev/29/3903349507bff37788a8062267d34a7f/ComfyUI_00107_.png

2. z-image-illustria-01
https://p.sda1.dev/29/bc8113d7f199109288076cac89d2e81f/ComfyUI_00108_.png

3. z-image-anime-2.5D-01
https://p.sda1.dev/29/34a11e65dda9743f72d0b6ec7add4fd7/ComfyUI_00109_.png

4. z-image-anime-01
https://p.sda1.dev/29/c5f198e0d9b556deade301f7db1da814/ComfyUI_00110_.png

5. psxZStyle_v1_ZIT
https://p.sda1.dev/29/9f0da14791b43f1663aa9ca1b4b90ce1/ComfyUI_00111_.png

6. VestalWater_Illustrious_styles_for_Z_Image
https://p.sda1.dev/29/402b8edf25c0a90182d674156a8e6d4a/ComfyUI_00112_.png

7. Flat_AnimeStyle_Agino_ZImage_Clear
https://p.sda1.dev/29/fcb9d527efa65ad1a9187a2759c72ad8/ComfyUI_00113_.png

8. Envy-Vintage-Speedpaint-01
https://p.sda1.dev/29/31f46bfef387c4b7b55695633a52fe67/ComfyUI_00114_.png

更新:
补充一个二次元到无法正常2x渲染的lora
因此是1152x656分辨率渲染之后用RealESRGAN放大的
https://p.sda1.dev/29/fbe9ff62e46183a4ac2870edee3884bc/ComfyUI_temp_rsnmk_00001_.png

mp5 发表于 2025-12-2 21:29

大家是用什么反推提示词的,我之前用的是joycaption, 感觉效果不太理想

mitzvah 发表于 2025-12-2 23:25

本帖最后由 mitzvah 于 2025-12-2 23:27 编辑

mp5 发表于 2025-12-2 21:29
大家是用什么反推提示词的,我之前用的是joycaption, 感觉效果不太理想
Qwen3 VQA 啊,图片视频皆可反推,模型推荐Qwen3-VL-8B-Instruct-NSFW或者4B

可以通过prompt决定抽取参考图的特定元素,经典大师分析系prompt:

你是一位资深的XX分析大师,你会精确描述各种XX

下面请你描述图片中的XX,你提供的描述将要作为AAA(模型)提示词使用。
**注意**:
1.仅描述XX就行了,不必描述其他内容如TT
2.需要描述xx的具体zz,如bb。
3。。。

tonyunreal 发表于 2025-12-2 23:47

本帖最后由 tonyunreal 于 2025-12-2 23:49 编辑

mp5 发表于 2025-12-2 21:29
大家是用什么反推提示词的,我之前用的是joycaption, 感觉效果不太理想

我用的模型是Janus Pro 7B,效果挺好的
comfy里的节点叫CaptionThis

—— 来自 Xiaomi 25060RK16C, Android 16, 鹅球 v3.5.99

tonyunreal 发表于 2025-12-3 08:33

妄想中毒 发表于 2025-12-1 16:03
借楼问问,comfyui0.3.5以后的版本运行速度为什么整体都变慢了,同一个sdxl工作流0.3.5以上版本第一次加载 ...

试试启动命令后面加 --disable-pinned-memory

neptunehs 发表于 2025-12-3 15:18

mitzvah 发表于 2025-12-2 23:25
Qwen3 VQA 啊,图片视频皆可反推,模型推荐Qwen3-VL-8B-Instruct-NSFW或者4B

可以通过prompt决定抽取参考 ...

没找到您说的nsfw
只找到huihuiai的abliterated
然后这位的东西又是原汁原味的仅供llama.cpp用的格式(model-00001-of-00002.safetensors这样的)
请问comfyui能用这个格式的吗?

—— 来自 OnePlus PJX110, Android 14, 鹅球 v3.5.99

mitzvah 发表于 2025-12-3 15:47

本帖最后由 mitzvah 于 2025-12-3 18:18 编辑

neptunehs 发表于 2025-12-3 15:18
没找到您说的nsfw
只找到huihuiai的abliterated
然后这位的东西又是原汁原味的仅供llama.cpp用的格式(mo ...
就是你说的那个模型分为8b与4b版

MODEL_ID = "huihui-ai/Huihui-Qwen3-VL-4B-Instruct-abliterated

comfyui早就可以集成llm了

Qwen3 VQA是一个节点,你下载好模型文件,包括全部模型数据与json文件后把文件夹扔到ComfyUI-aki-v2\ComfyUI\models\LLM\Qwen-VL\路径下应该就能读取了

如果不行的话让ai帮你改一改qwen3 VQA就肯定能跑了

详细教程b站有很多:【Qwen3-VL-多模态模型comfyui本地部署及使用指南,视频反推+图片反推轻松复刻爆款视频!】 https://www.bilibili.com/video/B ... 5c76a0aa322e7fbd815

这玩意的最大优点是能够自行分配注意力集中抽取参考图的目标概念,然后生出极其详细的描述,(而且真的能识别nsfw场景进行描述)实际操作中,你可以把整个反推分为不同通道,每个通道都集中抽取一个概念,比如nsfw场景,比如动作, 比如摄像头机位,比如人物服饰,让每个通道都一心集中注意力生成独立专门性的概念描述,到最后把这些描述一综合那就完全不需要去费尽心机的考虑如何写prompt了,花点功夫整个流程都能完全自动化

退一万步,就算comfyui部署不了也不要紧,只要学会使用范例这种大师流分析prompt模板,随便找个可以本地部署qwen3vl模型的客户端,部署了上面提到的这两个模型prompt输进去,图片视频一上传一样可以得到好的反推结果。最多无法自动化而已

实际跑起来效果是这样的:




neptunehs 发表于 2025-12-3 16:22

本帖最后由 neptunehs 于 2025-12-3 16:25 编辑

mitzvah 发表于 2025-12-3 15:47
就是你说的那个模型分为8b与4b版

MODEL_ID = "huihui-ai/Huihui-Qwen3-VL-4B-Instruct-abliterated


也就是我完全理解错了
我以为是用这个版本替代text_encoder里面的qwen3-vl-4b

我刚刚正好在看有人说zit有防nsfw 然后有人认为问题出在encoder 然后我就想到了替换 然后正好看到你这个 然后我就想歪了

—— 来自 OnePlus PJX110, Android 14, 鹅球 v3.5.99

mitzvah 发表于 2025-12-3 16:30

本帖最后由 mitzvah 于 2025-12-3 16:32 编辑

neptunehs 发表于 2025-12-3 16:22

也就是我完全理解错了
我以为是用这个版本替代text_encoder里面的qwen3-vl-4b
zit没有防nsfw机制的,这东西干净的很,就是训练集里没有黄图,缺乏这方面知识而已,flux2那种才算有防御机制,现在c站已经一堆 zit的nsfw lora了,我们这种普通玩家就等着在基模上的后训练的新的illustrious与pony的替代模型出来就可以了

neptunehs 发表于 2025-12-3 16:53

mitzvah 发表于 2025-12-3 16:30
zit没有防nsfw机制的,这东西干净的很,就是训练集里没有黄图,缺乏这方面知识而已,flux2那种才算有防御 ...

对 所以我担心的是text_encoder这一块会不会有防nsfw 具体来说就是qwen3_vl会不会吞关键词(现在主流的zit的workflow的text_encoder都是qwen3_vl吧

—— 来自 OnePlus PJX110, Android 14, 鹅球 v3.5.99

mp5 发表于 2025-12-3 18:00

感谢楼友提供的信息,晚上再试试

处男鉴黄师 发表于 2025-12-3 23:49

mitzvah 发表于 2025-12-3 15:47
就是你说的那个模型分为8b与4b版

MODEL_ID = "huihui-ai/Huihui-Qwen3-VL-4B-Instruct-abliterated


才知道这个插件,安装后使用去审核的8B thinking模型,让AI化身官能小说家看图说话效果很赞

拉屎 发表于 2025-12-4 10:44

这个推图好慢啊,你们多久?

—— 来自 vivo V2329A, Android 15, 鹅球 v3.5.99

tonyunreal 发表于 2025-12-4 11:27

拉屎 发表于 2025-12-4 10:44
这个推图好慢啊,你们多久?

—— 来自 vivo V2329A, Android 15, 鹅球 v3.5.99

云gpu,896x1152,9-10秒一张

7776169 发表于 2025-12-4 11:39

拉屎 发表于 2025-12-4 10:44
这个推图好慢啊,你们多久?

—— 来自 vivo V2329A, Android 15, 鹅球 v3.5.99

多少g显存?
我8g显存去用q6的文本加fp8的模型也就33秒一张1024*1024

—— 来自 鹅球 v3.3.96

拉屎 发表于 2025-12-4 11:52

我用的huihui8b那个,要一分钟了,云端的4090

—— 来自 vivo V2329A, Android 15, 鹅球 v3.5.99

cym887 发表于 2025-12-4 12:05

反推不如交给grok 本地反推 正常出不了十几个字就开始复读复读复读复读复读

7776169 发表于 2025-12-4 13:32

拉屎 发表于 2025-12-4 11:52
我用的huihui8b那个,要一分钟了,云端的4090

—— 来自 vivo V2329A, Android 15, 鹅球 v3.5.99 ...

不会这么慢的吧
哪怕fp16,两个加起来也就20g大小吧

—— 来自 鹅球 v3.3.96

cym887 发表于 2025-12-4 14:59

mitzvah 发表于 2025-12-3 15:47
就是你说的那个模型分为8b与4b版

MODEL_ID = "huihui-ai/Huihui-Qwen3-VL-4B-Instruct-abliterated


你发那个视频 我下了他的提供的三个模型 丢models/LLM/Qwen-VL 还是models\prompt_generator里 都没有反应 读取不到 也不会像视频说的一样自动下载模型

mitzvah 发表于 2025-12-4 15:05

本帖最后由 mitzvah 于 2025-12-4 15:17 编辑

cym887 发表于 2025-12-4 14:59
你发那个视频 我下了他的提供的三个模型 丢models/LLM/Qwen-VL 还是models\prompt_generator里 都没有反 ...
当初我用的时候好像是用ai修了下代码


也不确认你能不能用

通过网盘分享的文件:ComfyUI_Qwen3-VL-Instruct.rar
链接: https://pan.baidu.com/s/1Q8nG1HshuoiDf_sLSaetOA?pwd=sd88 提取码: sd88


模型文件放到我的图片指定的位置


cym887 发表于 2025-12-4 16:05

本帖最后由 cym887 于 2025-12-4 16:27 编辑

看了下github 依赖库有问题 安装最新版4.57.3然后把models\prompt_generator里下好的模型删了 在重启comfyui后运行反推就会自动下载安装了然后4b看着能运行 但是十分钟了 没蹦出字来   4b-fp8 报错FP8 quantized models is only supported on GPUs with compute capability >= 8.9 (e.g 4090/H100), actual = 8.6    寄

/python3.11/site-packages/transformers/tokenization_utils_base.py Line:2419

I found that a json object used by '_config.model_type'.

This is a bug of huggingface transformers, and it repaired in version 4.57.3.
页: 1 [2] 3 4
查看完整版本: (AI绘图,可能nsfw)可以有个Z-Image-Turbo专楼吗