来源:AIGC研修社
作者:逗砂
原标题:《AI绘画可控性研究与应用》
这是昨天在清华美院课程的文字稿和PPT,主要分享的是AI绘画可控性的研究和应用。梳理了一下AI绘画可控性的一些整体知识脉络,和最新发布的controlnet1.1。
目前的AI绘画大部分都是基于diffusion这个模型的,我们可以注意到无论是现在最流行的开源的stablediffusion还是最开始的discodiffusion,他们都是基于扩散算法的,这个算法的优势在于它的随机性,随机性可以给我们带来很多意想不到的结果,扩散模型生成的每一张图都不一样。这个特性最大的好处就是可以带来无穷无尽的想象力,很多时候这些想象力甚至会超越人类自己。
但是这些随机性带来的想象力有一个很大的问题,就是它不可控。大家都戏称这种创作叫抽卡式创作,你也不知道最终的生成效果是什么样的。有时候运气好出来一张非常惊艳的图,但是不可复现,感觉跟你也没啥关系。
这就是去年开始早期AI绘画的状况,它虽然可以生成很多漂亮的图片了,但是它本质上还是一个玩具,因为所有的设计领域都需要对结果可控,对于设计师来说,不能修改,不能控制画面中的内容,无法精准的满足甲方爸爸的要求,这种工具也只能在早期头脑风暴的阶段使用。
但是后面出现的微调模型和controlnet,把这个状态打破了。所以我说controlnet的出现补完了AI绘画工业化生产的最后一块拼图。AI绘画这个工具正式的进入设计师的工作流了。
我们现在回到AI绘画的可控性有哪些这个问题上。广义上来讲,AI绘画的生成结果可以通过下面几种方式控制。
第一个就是提示词,文生图的意思就是通过文字去控制画面。其实从去年到现在市面上有大量的教程教你如何去写提示词,我们把特别擅长写提示词的人称为提示词工程师。但是作为一个最广泛的控制手段,提示词有它的局限性,这个一会讲。
除了文字提示之外,我们还可以使用图片作为提示,也就是垫图。图片提示可以更加精准的控制画面的构图和元素。
Revolut推出针对多代币投资的“Crypto Collections”功能:4月7日消息,总部位于英国的数字银行应用程序Revolut根据对应的底层技术将100多种代币进行了分组。
该功能根据与底层技术相关的各种因素(如NFT、元宇宙或游戏),将Revolut应用程序上可用的100多种代币分为不同系列。客户将能够购买整个系列,并在所有代币中平均分配他们的投资,或跟踪整个系列。
据介绍,通过“Crypto Collections”,用户可以基于底层技术发现新的代币,并更多地了解代币背后协议的功能。(The Paypers)[2023/4/7 13:50:31]
我们还可以使用AI绘画进行图片编辑,涂抹掉不想要的部分然后重新生成,这个技术最早出现在dalle2上,后面迅速的被应用到了SD上。
在最近刚更新的controlnet1.1版本里其实把图像提示和图像编辑都整合进去了。我们今天会重点讲解controlnet1.1的功能。
最后还有一种控制方式也非常重要,叫微调模型,目前市面上最流行的微调模型叫lora。微调模型是通过收敛好的模型来更加精准的控制输出的风格和元素。
我们刚刚提到了提示词控制画面有它的局限性,这个局限性主要体现在哪些方面呢?
下面这几张图是同一提示词在midjourney不同模型算法的下的生成结果。我这里只使用了一个单词女孩。我们可以看到在初代版本的人物生成结果是非常差的,这个跟早期discodiffusion的效果类似。我记得去年4五月份还有很多人去花了大量时间研究怎么写提示词和调整参数让DD来画出一个像样点的人物图。
可是随着MJ算法的迭代和SD的出现,这些对提示词的研究瞬间就失去了意义。我们可以看到从MJ的第三代算法开始,人物生成已经越来越好了,三代算法对于一些手部的细节还有瑕疵。所以那个时候很多人嘲笑AI不会画手,但是最新版本的MJ算法已经解决了这个问题。
这个过程大家可以看到,提示词的生成效果极度的依赖与模型算法。所以我不建议花太多时间去研究提示词,提示词掌握到78分就差不多了,因为今天研究的东西,废了很多时间总结出来的规律可能新的技术一出来就完全失效了。
知情人士:资管巨头Blackstone和Apollo考虑收购硅谷银行资产:金色财经报道,据彭博社援引知情人士报道,另类资产管理公司Blackstone(BX)和Apollo(APO)正在考虑收购硅谷银行(SVB)的资产。[2023/3/14 13:04:01]
提示词的生成效果极度依赖模型,模型对生成结果的影响力远大于提示词,这个特性我们可以发现,通过微调模型去控制AI绘画的生成结果是一条比写提示词更有效的方式。
那么有哪些微调模型的自训练方式呢?
目前市面上主要有四种基于SD的微调模型方法。这四种方法里目前最流行的是一款叫lora的方法。
接下来我挨个介绍一下这四种方法的不同之处和应用范围。
首先是这个embedding的微调模型,它是通过使用文本提示来训练模型的方法。它的原理其实是通过在大模型的隐空间,找到对应特征的图像文字映射,然后通过打包重新定义这个映射来达到稳定输出特定图像的效果。
因为它并不会改动原有的大模型,所以文件非常小。效果也还好,并且对系统计算资源要求不高。
接下来这个hypernetwork其实是一种针对画风训练的微调模型。生成的模型文件要比embedding大一些。
前面这两种方法其实对于精准生成特定的物体效果都不太理想。dreambooth其实是目前为止最能稳定生成特定人或者物的微调模型。比如你有一个产品需要训练模型,dreambooth是最能让每个产品的细节特征都复现的。而且它不需要太多的数据集就可以训练,前面两种动不动就是几十张上百张的数据,它都不需要,dreambooth最少使用3~5张图就可以了。
BitDAO社区发起新提案投票,拟为以太坊L2网络Mantle规划1年预算资金:2月14日消息,BitDAO社区发起BIP-19提案,该提案提议为此前推出的以太坊L2网络Mantle规划一年预算资金,包括1000万枚BIT和1400万枚USDC用于支付测试网6个月运营费用,以及1.45亿枚BIT和3400万枚USDC用于支付主网一年的运营支出等。
关于该提案的投票现已开启,截止2月20日结束。[2023/2/14 12:06:11]
话说回来dreambooth这么好,为什么现在不流行呢?因为它有个很大的问题就是模型文件太大了。而且对训练设备的性能要求很高。而且它的训练时间也很慢。
那么我们现在来看看目前最流行的lora。它其实是一种为了简化微调超级大模型需要大量的算力而产生的算法。它对于算力的要求不高,模型大小也适中,对于人物复现的精确度要优于embedding,已经很接近dreambooth了,最重要的是,它还能通过调整权重进行多模型的融合。我们可以像调鸡尾酒一样调整模型。
那么如何使用微调模型去应用到设计的工作流上呢?
其实方式有非常多,可以稳定生成特定的人物或者画风,在游戏,广告,动画等等领域都有非常大的应用空间。
这里我举两个在品牌营销方面的例子。
这是可口可乐通过微调模型稳定的输出品牌logo,然后让用户自己去生成创意图片的一个活动。
除了这个国外的案例,去年国内也有一个类似的例子。
雪佛兰做过一个这样的活动。它通过让用户使用微调好的模型,稳定的生成雪佛兰汽车在不同环境场景下的图片。通过这个方式让用户参与到品牌的宣传之中。
Web3企业聊天工具开发商Protico完成Pre-Seed轮融资:1月18日消息,Web3 企业聊天工具开发商 Protico 宣布完成 Pre-Seed 轮融资,具体金额暂未披露,Darwin Venture、NFT 市场 Lootex 联合创始人 David Tseng、Binance 前高管 Allen Chen、跨链加密货币钱包 Blocto 联合创始人 Hsuan Lee 等参投。
Protico 推出的聊天小部件Web3 Lobby及配套的 Chrome 扩展应用能让用户在几秒钟内将 Web3 社交层和交流层无缝集成到自己的应用程序中并允许用户使用加密钱包访问通用聊天界面。[2023/1/18 11:19:02]
从这两个活动中我们可以发现什么?
过去的广告方式都是中心化的,广告公司生产创意,然后同一个内容让用户被动接受。
但是AIGC时代的营销方式,可以让每个用户即是创意的生产者也是传播者和接收者。这很像病营销,但是比传统的病营销要好。
过去的病营销只是同一创意的转发,没有强的参与感,aigc让每个人都有参与创作的可能。
在这个语境下,设计师需要设计如何引导用户生产内容,而不是自己做一个多么厉害的作品。
微调模型延展资料
国外模型平台:
https://civitai.com/
国内模型平台:
https://draft.art/model
国内在线训练微调模型的产品:
右脑科技:https://work.rightbrain.art/目前免费
特赞AIGCPlayground:https://musedam.cc/home/ai?目前免费
无界AI:https://www.wujieai.com/pro做了个colab的国内镜像版收费
最后,我补充一些关于微调模型的资料,大部分市面上的教程,都是基于云端colab或者本地训练的,这个我就不重复了。
国内可以简单使用的产品还有下面几个。一个是右脑科技的产品,这个目前还是免费的效果也还不错。
还有的就是特赞的AIGC平台,这个目前暂时也是免费的,无界ai做了一个云端的镜像版本,这个是按算力收费的。
胖企鹅CEO所持BAYC #5382将用于纯净水品牌Ape Water包装:9月18日消息,面向Web3社区的高端纯净水品牌Ape Water将使用NFT项目胖企鹅Pudgy Penguins首席执行官Luca Schnetzler持有的BAYC #5382。据悉,BAYC #5382具有6个独立特征,包括全息眼镜、骨头项链和渔夫帽等,每个Ape Water饮料罐包装都将印有该Ape。
根据该品牌公司Ape Beverages官方网站披露,Ape Water将于9月22日在指定零售商发售,APE持有者可在其网站连接钱包获取福利。(Hypemoon)[2022/9/18 7:04:00]
除了这几个训练模型的平台之外,国内外还有一些模型的聚合平台,这些平台上的模型大部分也都是可以调用的,大家自己训练好之后也可以上传到这些平台上。
微调模型部分就介绍到这里。接下来重点讲解contronlnet。
controlnet就是控制网的意思,其实就是在大模型外部通过叠加一个神经网络来达到精准控制输出的内容。
这个技术是今年二月由一个叫张吕敏的斯坦福博士生发布的。这个人也挺神奇的,他本科在苏州大学读的医学专业,后面才转到编程。但是他从大一就在发表人工智能相关的论文了。
从2017年开始一致专注在AI填色这个领域。之前全世界最火的一款AI填色的程序也是他开发的。
2月的时候他发布了controlnet1.0版本,在火遍全世界之后就消失了,然后最近又发布了1.1的加强版。今天的内容主要针对这个最新版本。
我们接下来看看controlnet一共包含多少种不同的控制方式。我这里大致分了四个类别,首先最大的这个类别是通过边缘或者线稿来控制,这个他分的非常细,一共有六种方式。这可能是跟他多年都在研究AI填色有关系。这六种模型里面,canny精细边缘控制用的最多,MLSD是主要应用在建筑和室内的生成上。还有涂鸦这种针对粗糙线条的控制。
可以提取深度信息的主要有两种,depth和normal,它们有一些细微的差别。
这个版本还增加了几种图像处理的模型,这几种其实都是SD和dalle2之前已经有的功能,不过这次controlnet做了整合。控制网开始包含一切的控制方式。
最重要的部分其实是针对元素的细节控制,这里有两种语义分割和openpose的姿势控制。
线的控制方式里,用的最多的就是这种。这里分享一个针对品牌的比较有趣的玩法,就是可以提取品牌的边缘然后生成各种有logo图案的大场景。
normal的模型可以跟3D软件结合进行快速的渲染,而不用通过贴图和各种复杂的材质设置。
openpose应该是controlnet最重要的功能之一了,之前的1.0版本还只能控制大致的姿势,现在已经对手部和面部的细节也能很好的控制。我们既可以通过提取画面中的人物姿势去生成类似的图像,也可以直接用调整好的姿势图来生成相应的图。
openpose可以应用在漫画,动画,广告海报,游戏设计等诸多领域。不过目前只支持人物的姿势,对于动物和其他类别还不能生成。
https://docs.google.com/spreadsheets/d/1se8YEtb2detS7OuPE86fXGyD269pMycAWe2mtKUj2W8/edit#gid=0
github地址:https://github.com/facebookresearch/segment-anything
demo演示地址:https://segment-anything.com/demo
论文地址:https://arxiv.org/abs/2304.02643
Controlnet延展资料
controlnet高阶组合用法合集
https://www.bilibili.com/video/BV1cL41197ji/?spm_id_from=333.337.search-card.all.click&vd_source=453933dd6891757733da4e4288779255
腾讯发布类似的controlnet的技术T2I-Adapters
https://github.com/TencentARC/T2I-Adapter
AIGC教程:如何用StableDiffusion+ControlNet做角色设计?
https://mp.weixin.qq.com/s/-5U3oHWP4c4YN0X4Vji0LA
提供免费TPU的ControlNet微调活动来啦
https://mp.weixin.qq.com/s/o7PTTyTXsLjo8ayq93W55w
控制名为AI的魔法,关于将AI绘画融合于工作流的案例和经验。
https://mp.weixin.qq.com/s/U-ks7Fs0fSDHJp6rCmAYoA
游戏要结束了:ControlNet正在补完AIGC工业化的最后一块拼图
https://mp.weixin.qq.com/s/-r7qAkZbG4K2Clo-EvvRjA
精确控制AI图像生成的破冰方案,ControlNet和T2I-Adapter
https://mp.weixin.qq.com/s/ylVbqeeZc7XUHmrIrNmw9Q
ControlNet项目地址
https://github.com/lllyasviel/ControlNet
ControlNet的WebUI扩展
https://github.com/Mikubill/sd-webui-controlnet#examples
国内加入controlnet的产品
https://www.wujieai.com/lab?无界AI付费
https://musedam.cc/home/ai特赞AIGCPlayground?目前免费ZQ
头条 ▌Lido社区关于批准授权成立金库管委会的提案已获投票通过4月28日消息,Snapshot投票页面显示.
原文:《EmbraceBeinganIdiot-ItWILLMakeYouaBetterCryptoInvestor》byTheoDelarosa在加密货币中拥抱白痴并不意味着要成为一个真正的白.
引言 尽管整体市场遇冷,但似乎Blur在NFTFi上向前跃进的脚步未曾放缓。根据其在5月2日所发布的推特动态,Blur正式从流动性聚合的直接交易层横跨到借贷市场,接连推出了P2P永续借贷Blen.
撰文:孟铉济,FoxTech首席科学家;康水跃,FoxTechCEO 前言 Layer1作为一种分布式系统,为了达成共识需要高昂的通讯代价,并且大量的计算也会消耗昂贵的gas.
作者:Bowen@Web3CN.Pro今天来聊一聊以太坊升级的事情,但我们想换个角度,不谈上海升级的影响、不谈Layer2的创新、不谈Rollup的技术革命.
4月24日-4月30日当周,比较值得关注的动态如下:Sui?性能更新:测试网最终确定时间约为?480?毫秒;TigerGlobal?将?OpenSea?估值下调至?30?亿美元;Solana?推.