tonyunreal 发表于 2025-12-9 21:59

wangchaowind 发表于 2025-12-9 21:15
我懒 而且菜 有一键解压的整合包么

https://codewithgpu.com/

一键部署,掏钱就行

自己本地部署要考虑的可就多了,特别是非n卡/非Linux

DLAN 发表于 2025-12-10 21:50

simon2137 发表于 2025-12-9 21:10
是的,晕比较大,提示词说了小结果出来还是很大。芒果加了稀疏的毛效果好点

——来自HUAWEI Mate 60 O ...

civitai上面有lora

—— 来自 Google Pixel 7 Pro, Android 15, 鹅球 v3.5.99

7776169 发表于 2025-12-11 15:41

本帖最后由 7776169 于 2025-12-11 18:33 编辑

https://www.bilibili.com/opus/1144985019238842400

BASE快要来了?

结果不是(

claymorep 发表于 2025-12-11 16:37

有时间我也想本地布一个
之前整了个ai画图懒人包,只能画二次元,玩多了太无趣

—— 来自 鹅球 v3.5.99-alpha

骷髅兵 发表于 2025-12-11 20:24

问一下,懒鬼直接部署的LibLibAI客户端,WEBUI本地部署这个和千问的话,我试了只载入大模型本体没法用,搜了下,除了大模型本体,至少还需要text_encoder和VAE吧,VAE文件夹直接扔VAE文件夹里,text_encoder文件夹直接扔clip文件夹里行不行,没法翻墙我找了其他地方下的,这两文件夹里除了好几个模型,还有一堆.json文件,另外还有scheduler、tokenizer、transformer等文件夹和文件都不知道该怎么放……,
顺便问问有没有简单便宜稳定的**,没法翻墙上Hugging Face更新连想学学Comfyui怎么用都不行
这是qwen的文件包


这是z-Image的

neptunehs 发表于 2025-12-11 20:33

本帖最后由 neptunehs 于 2025-12-11 20:38 编辑

骷髅兵 发表于 2025-12-11 20:24
问一下,懒鬼直接部署的LibLibAI客户端,WEBUI本地部署这个和千问的话,我试了只载入大模型本体没法用,搜 ...

comfyui不方便没办法毕竟github确实一下下断
但huggingface是有无墙镜像的
我不知道直接发合适不但百度下肯定就有了 甚至可以通过临时变量让comfyui连镜像站

swarmui的qwen3 4b就是放clip的 所以要看他是怎么写的程序跟节点

理论上只需要model跟text_encoder/clip
其他的都应该不是必需的 但其他的ui不清楚是不是这样

另外就算是懒鬼包 也是必须更新后才支持新底模的模型的

—— 来自 OnePlus PJX110, Android 14, 鹅球 v3.5.99

骷髅兵 发表于 2025-12-11 20:44

neptunehs 发表于 2025-12-11 20:33
comfyui不方便没办法毕竟github确实一下下断
但huggingface是有无墙镜像的
我不知道直接发合适不但百度下 ...

我这里comfyui连想加个LORA节点都不行,不光是上不了huggingface的问题,没法只能用最老的WEBUI,看起来是和秋叶那个整合版差不多的,但qwen这些新模型多了很多中文解析模块什么的,在老的SD WEBUI上不知道该怎么部署

12th博士 发表于 2025-12-11 23:35

配置7600 4060 32g
大概20多秒出一张图
关键部位不够准确,胸部似乎不支持调小
不过可玩性还是挺高的

https://p.sda1.dev/29/58baa8017a531036d45a2947a35c0cc7/image.jpg

—— 来自 Xiaomi 23113RKC6C, Android 16, 鹅球 v3.5.99-alpha

Unbiquitous 发表于 2025-12-12 05:34

12th博士 发表于 2025-12-11 23:35
配置7600 4060 32g
大概20多秒出一张图
关键部位不够准确,胸部似乎不支持调小

这背后的小朋友

neptunehs 发表于 2025-12-12 17:15

mitzvah 发表于 2025-12-9 18:38
现成的工作流插件文件夹的example里不就是



有没有好用的反推prompt?
我自己随便写了个发现描述会很偏重背景而不管妹子衣服

—— 来自 OnePlus PJX110, Android 14, 鹅球 v3.5.99

simon2137 发表于 2025-12-12 17:25

neptunehs 发表于 2025-12-12 17:15
有没有好用的反推prompt?
我自己随便写了个发现描述会很偏重背景而不管妹子衣服


https://b23.tv/fzbVxZX
反推节点看这个视频来选择吧,我装了joycaption和在线的提示词小助手,有条件装第一个千问。ps:提示词小助手效果意外的好,反推出来在z-image跑出来是这个样子。
https://p.sda1.dev/29/813ff1aabff8f383722eaf142959d7f9/image_1765467362652.pnghttps://p.sda1.dev/29/dc1c92d9da1e4aa9f9b3848aa130e1cb/image_1765467355680.png

——来自HUAWEI Mate 60 OpenHarmony-6.0.1.115(21) 上的 S1 Orange 1.3.3

mitzvah 发表于 2025-12-12 18:20

本帖最后由 mitzvah 于 2025-12-12 18:21 编辑

neptunehs 发表于 2025-12-12 17:15
有没有好用的反推prompt?
我自己随便写了个发现描述会很偏重背景而不管妹子衣服

一次性就想获得完整prompt是很难成功的,我个人的用下来,感觉应该用分通道的方法,每一次都只获取一类型的prompt,比如说一个动作,我就集中反推动作,强调不允许描述其他内容,nsfw场景,就强调集中描述nsfw场景,忽略衣服之类的元素,,每一个prompt都集中抽取一个类型的概念,然后把分几次获得不同类型pprompt再根据个人喜好组合起来。


ai的注意力是有限的,输出的最大token也是有限的,要求的越含糊,它抽取的内容就越大而化之,那么描述就很难详细
页: 1 2 3 [4]
查看完整版本: (AI绘图,可能nsfw)可以有个Z-Image-Turbo专楼吗