都说 AI 绘画来势汹汹,但论创意,还是人类玩得花。
赶紧按下手机截图键,看看原图和缩略图的对比,你就能窥破玄机:
是的没错!
以及这位把 AI“穿”在身上的的红毛衣小姐姐:
还有网友给了别的“认字”秘诀,比如摘下你的近视眼镜:
呼声最高的评论有两种,一种是“牛哇牛哇”的感叹,另一种是嗷嗷待哺的“蹲教程”。
所以,这些又牛又 diao 的图,是怎么做出来的?
ControlNet 又立大功
Stable Diffusion+ControlNet。
作为最火爆的两个 AI 绘画工具之一,Stable Diffusion 已经风靡一年,热度不减,已经被大伙儿熟知和玩坏了。
所以今天想重点介绍一下 ControlNet,这家伙是 Stable Diffusion 的一个 AI 插件。
今年春天,ControlNet 因为能够搞定 AI 原本无法控制的手部细节、整体架构,一炮而红,被网友们戏称为“AI 绘画细节控制大师”。
Stable Diffusion 根据提示词生成图像显然太过随机,ControlNet 提供的功能,恰好是一种更精确地限制图像生成范围的办法。
究其原理,本质上是给予训练扩散模型增加一个额外的输入,从而控制它生成的细节。
“额外的输入”可以是各种类型的,包括草图、边缘图像、语义分割图像、人体关键点特征、霍夫变换检测直线、深度图、人体骨骼等。
Stable Diffusion 搭配 ControlNet 的整个过程中,第一步是预处理器生成图像,第二步让这些图像经过 ControlNet 模型的处理,第三步时,将图像输入到 Stable Diffusion 中,生成最后展现在用户面前的版本。
单说 ControlNet 的整体思路,就是先复制一遍扩散模型的权重,得到一个可训练副本。
而且就算数据量很少 —— 哪怕少于 5 万张 —— 模型经过训练后,条件控制生成的效果也贼拉棒。
比如 diao 哥和牛啤姐的那几张图中,它主要起到的作用,就是负责确保文字作为光影、衣服图案等,“放进”了图像中。
抖音原作者表示,最后还用上了 ControlNet tile 模型,这个模型主要负责增加描绘的细节,并且保证在增加降噪强度时,原图的构图也不会被改变。
也有 AI 爱好者“另辟蹊径”,表示要得到如图效果,可以用上 ControlNetbrightness 模型。
这个模型的作用,是控制深度信息,对稳定扩散进行亮度控制,即允许用户对灰度图像着色,或对生成的图像重新着色。
不仅有动漫风,还有 3D 立体、水墨风、浮世绘风、水彩风、PCB 风格……
同样在 Reddit 等平台上引起“哇”声一片:
感兴趣的旁友们,可以戳量子位之前的文章一探究竟《ControlNet 新玩法爆火》。
AI 大手子分享教程
光影效果爆火之后,推特上很快有 AI 大手子站出来表示愿意分享手把手教程。
大概思路非常简单,分为 3 个重要步骤:
第一步,安装 Stable Diffusion 和 ControlNet;
第二步,在 Stable Diffusion 中进行常规的文生图步骤;
第三步,启用 ControlNet,重点调整 Control Weight 和 Ending Control Step 两个参数。
运用这个方法,不仅可以完成人像和光影文字的融合,城市夜景什么的,也妥妥的。
大佬还在教程里温馨提示了一下:
写提示词时,尽量不要用一些例如特写人像之类的提示词,不然文字或者图案就会盖在人脸上,很难看.
你说说,这效果,这动手能力,谁看了不说一句 NB 呢?
如果你也动手 NB 了一下,欢迎在围脖平台 量子位,投喂你的最终成品和我们互动嗷~
广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。