tonyunreal 发表于 2025-11-27 16:04

(AI绘图,可能nsfw)可以有个Z-Image-Turbo专楼吗

本帖最后由 tonyunreal 于 2025-11-27 18:20 编辑

Flux 2刚出就被阿里的Z-Image-Turbo截胡了,模型小速度快还没限制
阿里在本地部署的开源模型界真是嘎嘎乱杀

ComfyUI的工作流:
https://comfyanonymous.github.io/ComfyUI_examples/z_image/

https://p.sda1.dev/29/1f7697559787ddbb2d847726383e5d8a/ComfyUI_00136_.png

https://p.sda1.dev/29/0d1e0f67c5c8eedd32f57e86688e2205/ComfyUI_00137_.png

https://p.sda1.dev/29/b3898b6fef14d70c5f7d757b6a372c23/ComfyUI_00143_.png

https://p.sda1.dev/29/a83d4daaa4d49ae688e3f5f5b4d8182d/ComfyUI_00146_.png

https://p.sda1.dev/29/8f4bd5bf384a8ff4f390f60986fbc53c/ComfyUI_00148_.png

https://p.sda1.dev/29/c4104c38de35cc273bf0ced94ea0ee47/ComfyUI_00152_.png

隐藏样例

处男鉴黄师 发表于 2025-11-27 16:11

发点大家爱看的,yo know

tonyunreal 发表于 2025-11-27 16:17

处男鉴黄师 发表于 2025-11-27 16:11
发点大家爱看的,yo know

id合格
来点s1能过审的提示词,我去生成

—— 来自 Xiaomi 25060RK16C, Android 16, 鹅球 v3.5.99

Onelooker 发表于 2025-11-27 17:40

本帖最后由 Onelooker 于 2025-11-27 20:15 编辑

不习惯用自然语言写提示词, 完全出不了我想要的图
生成很快, 4090跑原生1600*1000九步只需要10s
也能露点, 但根本不涩, 不知道会不会有二次元特调, 现在这些图你用sdxl都能跑出来
这种模型跑二次元最大的问题是美学概念太差
https://p.sda1.dev/29/5b0a7e827d26d8e4ddc68620c42afbb8/ComfyUI_temp_pmybt_00050_.png

tonyunreal 发表于 2025-11-27 17:53

本帖最后由 tonyunreal 于 2025-11-27 18:07 编辑

豆包那个帖子抄来的提示词改了改:

https://p.sda1.dev/29/af010f39350cff2b2d0c2484bd1bfd3e/ComfyUI_00184_.png

另外一些自己的老图提示词:

https://p.sda1.dev/29/e669c43ceadc4b34913f38edabc9434c/ComfyUI_00211_.png

https://p.sda1.dev/29/c6f29d5d82d478dbc8f763000d3812a8/ComfyUI_00249_.png

https://p.sda1.dev/29/1e187790186fb10d6df98565f6b3af66/ComfyUI_00247_.png

https://p.sda1.dev/29/ec536a09b010fa90a0bf1d13c6ea5678/ComfyUI_00246_.png

https://p.sda1.dev/29/b232961611a0eabd58d0a81a5fd763d9/ComfyUI_00265_.png

https://p.sda1.dev/29/4f4439b2f594114ac589d1705c178185/ComfyUI_00264_.png

https://p.sda1.dev/29/fdd5ddcc85621a27765967bde419db5a/ComfyUI_00260_.png

千千千千鸟 发表于 2025-11-27 18:30

能用lora定制吗,这二次元效果看着不行,真人的是有点牛。

nianiania 发表于 2025-11-27 19:05

真人特攻了,拿来修图应该不错

noneoneone 发表于 2025-11-27 20:30

我看官网要16g显存,这个还能量化吗?

tonyunreal 发表于 2025-11-27 21:51

noneoneone 发表于 2025-11-27 20:30
我看官网要16g显存,这个还能量化吗?

我看老外最低有用6G显存的,不过生一张图要接近一分钟

tonyunreal 发表于 2025-11-27 23:00

本帖最后由 tonyunreal 于 2025-11-27 23:03 编辑

C站看到的一些

https://p.sda1.dev/29/05743549475d7ffd37f9b35e84f322ae/90287c76-656c-4117-b243-31127e9f9ce9.jpeg

https://p.sda1.dev/29/1eb6b0a0717bdc420eff5f3c907e4a4d/111748347.png

https://p.sda1.dev/29/0af661105f77914d62f2ccc6d7e00d56/111754433.png

一点小实验

https://p.sda1.dev/29/9778173384fbed98f19b7ac20b7c7ce1/ComfyUI_00270_.png

一些无聊且nsfw的实验

tonyunreal 发表于 2025-11-28 15:10

https://reddit.com/comments/1p89e2e

老外的i5 8250u / mx150笔记本显卡测试结果
出一张图大概6分钟

—— 来自 Xiaomi 25060RK16C, Android 16, 鹅球 v3.5.99

noword 发表于 2025-11-28 16:40

空了拿我6g辣鸡显卡试试

子虚乌有 发表于 2025-11-28 16:43

第一张那是ai画的?厉害啊

不过仔细看细节有问题。比如左边车没轱辘

流缨 发表于 2025-11-28 16:50

这玩意儿不说是人像特调吗?其他场景表现一般,尤其二次元不大行
优点就是小和快,感觉差不多可以直接适配手机端

gnihton314 发表于 2025-11-28 17:09

感觉主要优势还是小,之前的Qwen-Image-Edit-2509太大了,我48g显存都放不下。

netplaying 发表于 2025-11-28 17:17

出真实系图效果很烂,翻来覆去就那么几张脸重复度比flux还高

琉璃苑軒風 发表于 2025-11-28 17:25

netplaying 发表于 2025-11-28 17:17
出真实系图效果很烂,翻来覆去就那么几张脸重复度比flux还高

出图换脸可太成熟了

—— 来自 鹅球 v3.4.97-alpha

妄想中毒 发表于 2025-11-28 18:13

sdxl根据画师标签能直出对应风格的图还是太方便了,再加上社区大量lora支持,后续新模型感觉完全没法取代sdxl的优势

netplaying 发表于 2025-11-28 21:27

琉璃苑軒風 发表于 2025-11-28 17:25
出图换脸可太成熟了

—— 来自 鹅球 v3.4.97-alpha

我需要随机的脸,不是固定某一张脸,zimage完全做不到,无论怎么换提示词都是那几个熟面孔

mitzvah 发表于 2025-11-28 23:18

本帖最后由 mitzvah 于 2025-11-28 23:23 编辑

妄想中毒 发表于 2025-11-28 18:13
sdxl根据画师标签能直出对应风格的图还是太方便了,再加上社区大量lora支持,后续新模型感觉完全没法取代sd ...
flux,qwen 这种模型体积太大了,后训练成本太高。之前有人尝试用flux为基模重新训练一个pony或者illustrious的后继模型,要用半年多时间才能完成训练,训到一半。被后来的qwen这些新模型一冲就半途而废了。


但这个不一样,q8量化才6g,原则上16g显存的显卡都能跑lora,后训练也容易,是真正能替代xl生态的理想基模。reddit上像过年一样。


这玩意是真正的战略级模型。


xl的技术太老了,clip和vae都是什么时代的老玩意,这个是直接套用的qwen3 4b,跟sdxl这种原古clip比起来完全不是一个概念的

琉璃苑軒風 发表于 2025-11-28 23:37

netplaying 发表于 2025-11-28 21:27
我需要随机的脸,不是固定某一张脸,zimage完全做不到,无论怎么换提示词都是那几个熟面孔 ...

我的意思是出图、换脸,不是出图换脸

tonyunreal 发表于 2025-11-29 00:05

netplaying 发表于 2025-11-28 17:17
出真实系图效果很烂,翻来覆去就那么几张脸重复度比flux还高

只有真实系女性不加国籍的时候有这个问题吧?外国人和二次元好像都没事,应该是训练数据过拟合了?
(那脸怎么看都觉得是东哥老婆)

—— 来自 Xiaomi 25060RK16C, Android 16, 鹅球 v3.5.99

处男鉴黄师 发表于 2025-11-29 08:58

netplaying 发表于 2025-11-28 21:27
我需要随机的脸,不是固定某一张脸,zimage完全做不到,无论怎么换提示词都是那几个熟面孔 ...

我有一计,用comfyui的wildcard提示词功能,加入魔法咒语{高圆圆|范冰冰|林志玲|ooo|xxx|...},每次随机使用一个名人脸

大暴死 发表于 2025-11-29 11:26

先马克一下,等我的5070ti到了实践一下

—— 来自 Xiaomi 25019PNF3C, Android 16, 鹅球 v3.5.99

tonyunreal 发表于 2025-11-29 11:36

本帖最后由 tonyunreal 于 2025-11-29 11:49 编辑

ai toolkit支持炼z-image-turbo的lora了
c站刷起来


—— 来自 Xiaomi 25060RK16C, Android 16, 鹅球 v3.5.99

7776169 发表于 2025-11-29 13:55

https://hf-mirror.com/Kijai/Z-Image_comfy_fp8_scaled/tree/main
这个是FP8的本体
https://hf-mirror.com/worstplayer/Z-Image_Qwen_3_4b_text_encoder_GGUF
这个是量化过的文本编辑器


虽然我觉得大家应该都能找到的了
不过还是发一下吧
Q6本文+FP8,33秒一张1024X1024(8G显存

natt 发表于 2025-11-29 13:59

我在抖阴上看到了很多北条麻妃的视频,这个是怎么做到的

7776169 发表于 2025-11-29 15:20

mitzvah 发表于 2025-11-28 23:18
flux,qwen 这种模型体积太大了,后训练成本太高。之前有人尝试用flux为基模重新训练一个pony或者illustrio ...

现在这个是加速模型阿
还没发布完整版跟编辑模型呢

等编辑模型出来也不太需要LORA了吧
拿光辉-NOOB来画二次元的图,然后用编辑模型来改就完事了(

妄想中毒 发表于 2025-11-29 15:47

7776169 发表于 2025-11-29 13:55
https://hf-mirror.com/Kijai/Z-Image_comfy_fp8_scaled/tree/main
这个是FP8的本体
https://hf-mirror.com ...

FP8和FP16性能差多少,FP16+文本编码器刚好超过16G了有点尴尬

7776169 发表于 2025-11-29 15:52

本帖最后由 7776169 于 2025-11-29 16:00 编辑

妄想中毒 发表于 2025-11-29 15:47
FP8和FP16性能差多少,FP16+文本编码器刚好超过16G了有点尴尬
不太清楚啊,但是我用这个客户端跑
https://bbs.nga.cn/read.php?tid=45493839
我8G显存+32G内存也可以硬跑两个FP16的
你实在不行那就FP16的模型+Q8的量化文本编辑器
我在FP16+Q8之下跑1024X1024大概1分钟左右一张图(

妄想中毒 发表于 2025-11-29 16:07

本帖最后由 妄想中毒 于 2025-11-29 16:09 编辑

7776169 发表于 2025-11-29 15:52
不太清楚啊,但是我用这个客户端跑
https://bbs.nga.cn/read.php?tid=45493839
我8G显存+32G内存也可以硬 ...
F16放内存里跑还是能跑,一张1080P要40秒左右,就是想看看能不能速度再快点,FP8和Q6文本编码器还在下载,等下下来了再试试

tonyunreal 发表于 2025-11-29 17:36

本帖最后由 tonyunreal 于 2025-11-29 18:39 编辑

妄想中毒 发表于 2025-11-29 15:47
FP8和FP16性能差多少,FP16+文本编码器刚好超过16G了有点尴尬

看别人测试的图,fp8和bf16基本没区别
甚至有fp8更好的情况

—— 来自 Xiaomi 25060RK16C, Android 16, 鹅球 v3.5.99

tonyunreal 发表于 2025-11-29 22:08

老外批量测试的名人脸:

https://p.sda1.dev/29/63a13fbfe9c1163e5aae5020c320e61a/humans-of-z-image-how-many-celebrities-can-you-fit-into-6gb-v0-zmo16nrff64g1.jpg

https://p.sda1.dev/29/c836d0869833bc3f7a57ba556afb225f/humans-of-z-image-how-many-celebrities-can-you-fit-into-6gb-v0-a19u826gf64g1.jpg

https://p.sda1.dev/29/6bfc732c8b7beb42b6ee6740dab16b2d/humans-of-z-image-how-many-celebrities-can-you-fit-into-6gb-v0-lsxmzxlgf64g1.jpg

https://p.sda1.dev/29/e385d0525461feac6134283571da3138/humans-of-z-image-how-many-celebrities-can-you-fit-into-6gb-v0-jv1v292hf64g1.jpg

https://p.sda1.dev/29/5e588241405bf5bfac8ca5a5ed0792f5/humans-of-z-image-how-many-celebrities-can-you-fit-into-6gb-v0-aveqffchf64g1.jpg

https://p.sda1.dev/29/7f9b08a2901c8d6cac390b9f0b4fa700/humans-of-z-image-how-many-celebrities-can-you-fit-into-6gb-v0-ubg74lrhf64g1.jpg

狭义文具爱好者 发表于 2025-11-29 22:43

生态已经动起来了,c站已经不少了,大家都憋的太久了,恐怕对每一个新模型都抱着热忱然而各种原因。总算看到了些曙光

流缨 发表于 2025-11-30 00:23

最近没有太关注生图这块,跑了一下发现zimage的vae还是FLUX那个,真就一直用啊
4090跑这个速度还是挺快的,10s一张

drx66 发表于 2025-11-30 00:49

https://hf-mirror.com/Kijai/Z-Image_comfy_fp8_scaled
https://hf-mirror.com/T5B/Z-Image-Turbo-FP8
这两个F8有什么区别?

燕山雪 发表于 2025-11-30 11:49

7776169 发表于 2025-11-29 13:55
https://hf-mirror.com/Kijai/Z-Image_comfy_fp8_scaled/tree/main
这个是FP8的本体
https://hf-mirror.com ...

请问对应的工作流哪里可以找到呢,不想自己试了

yjmy705 发表于 2025-11-30 12:12

小白求助,这个模型为啥我切到其他模型再切回来就会出灰图或者色块。

小津江 发表于 2025-11-30 12:20

过拟合严重,一看到墨幽老师在外面说自己有参与突然释然了……然后怎么说呢……感觉场景上,社区很难起来……玩社区的人因为硬件跟不上的都退坑了,还在跑训练的硬件都足够去调更好的模型……

7776169 发表于 2025-11-30 13:27

燕山雪 发表于 2025-11-30 11:49
请问对应的工作流哪里可以找到呢,不想自己试了

用他官方给的工作流啊。。。。。。。
无非换成这两个模型而已(
页: [1] 2 3 4
查看完整版本: (AI绘图,可能nsfw)可以有个Z-Image-Turbo专楼吗