ai画背景的进步速度会更慢么
感觉ai画的背景更多是那种,纯看很好,但实用很低的?(指难以直接用在游戏和动画里)目前novelai这么强的背后是d站大量的准确标签和图片。
但日式的背景画师本身在插图网站上投稿的数量就更少些,而且不会有很多lsp会对背景贴出大量详细的标签。
是不是学的就会更慢?
至少我感觉目前novelai产的背景还是照片滤镜的水准,不太行。 还得看老黄的 本帖最后由 ltycomputer 于 2022-10-11 11:17 编辑
deep danbooru/CLIP可以根据二次元画生成tag
当然如果人类发明了新的tag,深度学习是推理不出来的,还得有人标注 直觉上来说感觉3d建模比较有戏 本帖最后由 acejoe 于 2022-10-11 12:19 编辑
ai楼一些背景可以看 本帖最后由 acejoe 于 2022-10-11 12:19 编辑
风怒 本帖最后由 断片集 于 2022-10-11 12:33 编辑
我发几张p站上有人用midjourney搞的,虽然效果还行,不过也不能细看
tarte的插图・漫画 - pixiv
AI风景目前缺乏可信的细节但是主体关系足够好,照着重画一幅仍然能节省很多时间。 因为现在流行的这几个底子都是512尺寸图训练出来的,细节当然会很差了。而且才几g的东西就从人物动物到背景也存不住细节。 现在novelai画的二次元背景能看吗,比如卧室客厅之类的,模糊一下不知道能不能直接用,实在不会画背景
页:
[1]