首页  >  教程  >  文章
2023-06-28 09:01

超级简单 | 0基础教你学会 Stable Diffusion 入门教学 安装篇【1】 —了解Stable Diffusion

AI奇点网工具使用教程丨Stable Diffusion 使用教程系列

本文是一篇关于如何使用 Stable Diffusion 绘画的教程,包括软件介绍和案例。

这篇文章就是完完全的帮助小白去了解 AI 绘画的一篇入门级教程,网络上关于 SD的教程实在是零散的,梳理成系列的网站非常少,AI奇点网的小青蛙就帮大家梳理一下 SD 的教学系列,帮助完全 0 基础的小可爱也可以使用AI进行创作,即使没有代码能里和手绘技术也能成为创作大师。现在将所有的教程汇集整合成一个系列免费送给大家。

小编吐槽一下AI给作为设计师的群体带来不小的冲击,2022年不断有消息传来大厂的设计岗在裁员,当时呱呱也十分的焦虑,自己又弱又菜鸡。不过在接触到 ChatGPT 和 AI 绘画的时候,就想到要去学习使用。现在来看一个答题的学习步骤。

第一是要去了解它背后的原理,或者说它大概能做什么了解之后就相对没有那么焦虑了,第二是打不过就加入,让 AI 成为你的一个工具, 同时,即使通过 AI 可以抹平大家技法上的差距,但是审美上的差距是无法用 AI 抹平的,而这个可能会变成大家能力差距的重要来源。

了解SD — stable diffusion 是什么

Stable diffusion是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。2022年8月由德国CompVis协同Stability AI和Runway发表论文,并推出相关程序。

同年,AUTOMATIC1111开发了图形化界面:「Stable Diffusion WebUI」,这是能用AI技术生成图片的开源软件,只要给定一组描述文本,AI就会开始绘图(准确的说是「算图」或「生图」);亦能模仿现有的图片,生成另一张图片。甚至给它一部分涂黑的图片,AI也能按照你的意愿将图片填上适当的内容。除此之外还支持自行训练模型加强生图效果。

Stable Diffusion的原理可以分为以下几个步骤: 

  • Stable Diffusion使用一个新颖的文本编码器(OpenCLIP),由LAION开发并得到Stability AI的支持,将文本输入转换为一个向量表示。这个向量表示可以捕捉文本的语义信息,并与图像空间对齐。
  • Stable Diffusion使用一个扩散模型(Diffusion Model),将一个随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,可以从训练数据中学习出一个概率分布,并从中采样出新的数据。
  • 在扩散过程中,stable diffusion利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布。这样,stable diffusion可以根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。
  • 最后,Stable Diffusion使用一个超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高的分辨率。超分辨率放大器也是一个扩散模型,可以从低分辨率图像中恢复出细节信息,并增强图像质量。

Stable Diffusion WebUI支持多系统又有很好的扩充性,便成为最多人使用的图形化程序。其图形界面是通过网页访问的,上手无难度,还有社群制作的界面中文化扩充功能。

与其他云端AI绘图软件Midjoruney、NovelAI、DALL-E相比,Stable Diffusion WebUI最大优点是可以免费在自己的电脑或服务器跑,且只要遵照 Creative ML OpenRAIL-M授权条款的话,几无使用限制。因其开放原代码的特性,任何人都可以贡献代码,参与改进项目。

一开始Stable Diffusion WebUI支持的是x86架构,配备独立显卡的Linux和Windows电脑。不过AI绘图热门到让Apple公司亲自下场优化,于是macOS也可以跑Stable Diffusion WebUI了。只是用笔电跑的要小心,AI绘图会占用大量GPU资源,小心散热。

至2023年,Stable Diffusion WebUI已支持Linux/Windows/MacOS系统,以及Nvidia/AMD/Apple Silicon M的GPU。

通俗来说Stable Diffusion 是一种基于扩散过程的图像生成模型,可以生成高质量、高分辨率的图像。它通过模拟扩散过程,将噪声图像逐渐转化为目标图像。这种模型具有较强的稳定性和可控性,可以生成具有多样化效果和良好视觉效果的图像。

Stable Diffusion的特点

  • 高度灵活:Stable Diffusion模型能够用于生成各种类型的图像,如人脸、物体等,为开发者提供了广泛的应用场景。
  • 高质量图像生成:Stable Diffusion模型经过大量高质量图像训练,生成的图像具有较高的逼真度和细节表现力。
  • 开源模型:现在已经有了预训练模型的支持,开发者可以在本地机器上进行二次开发和调整,这降低了学习和使用的门槛。

Stable Diffusion的优势

Stable Diffusion的优势在于其高质量的图像生成和灵活性,能够应用于多种场景。该模型可以生成高质量的图像,逼真度和细节表现力较好,能够更好地满足实际需求。同时,开源模型的支持使得开发者可以在本地进行开发和调整,减少了学习和使用的难度。

Stable Diffusion的局限性

Stable Diffusion模型的处理速度较慢,且在处理高分辨率图像时占用的内存较大。这主要是因为扩散模型在像素空间中运行,导致处理时间缓慢且内存消耗较大。因此,在处理高分辨率图像时可能会遇到时间和内存消耗的挑战。

现在也有很多的解决办法,B站的秋叶大佬已经将 SD 的开源模型整理好成为一个下载下来就能用的小白工具,也可是部署在云端,依靠云服务器的算力来使用 SD。

应用场景举例

虚拟角色设计:根据文本描述,Stable Diffusion可以生成具体的角色面孔,辅助设计师进行创作。

商品建模:通过输入商品描述,模型可以生成相应的商品图像,方便电商平台展示。

艺术创作:艺术家可以将自己的构思用文字表述,借助Stable Diffusion将想法转化为具体的图像作品。

SD 的应用场景不仅限于这三个领域,现在大家可以想到的领域基本都可以实现。呱呱在油管上看到有建筑,动漫,园林等等。利用 SD 结合其他软件,多人的工作流程,现在甚至可以缩减到1人。随着技术的不断突破和改进,我们一起努力跟进未来。

这一小节已经基本的了解 SD 是什么,能做什么,有什么优缺点,还有超级详细的大纲。下一小节我们去了解一下各种安装方式。(有些素材源自于网络)

【下一节】Stable Diffusion 的安装方式详解>>>

8
查看相关话题: #Stable Diffusion教程

相关文章