首页  >  教程  >  文章
2023-06-29 16:31

超级简单 | 0基础教你学会 Stable Diffusion 入门教学 安装篇【3】— 安装 Stable Diffusion web 命令行参数 含懒人参数

AI奇点网工具使用教程丨Stable Diffusion 使用教程系列

安装 Stable Diffusion web 命令行参数 含懒人参数

各个系统(Linux/Windows/macOS)的安装教学已包含懒人参数,照抄即可。

Stable Diffusion WebUI的项目文件夹附有启动主程序的指令稿(script),称为启动指令稿。

Linux/macOS的变量与参数是写在webui-user.sh,接着用户以终端机运行webui.sh,它会读取webui-user.sh里面写的变量与设置值,将其传给launch.py,然后启动WebUI。

Windows也是类似,不过变量与参数是写在webui-user.bat批量档,然后用户以终端机运行此批量档即会启动主程序。 (或者在文件总管点二下,不许需要系统管理员权限)

环境变量与命令行参数的设置方法 

Linux/macOS:编辑webui-user.sh,填入export 变量=数值

Windows:编辑webui-user.bat,填入set 变量=数值

例如,Windows对webui-user.bat按右键以记事本编辑,加入这行命令行参数:

环境变量 

指令稿里面可使用这些环境变量(environment variables):

名称 说明
PYTHON 设置 Python 运行档路径。 
VENV_DIR  设置 Python 虚拟环境的路径。默认值为venv。该值为-时则不创建虚拟环境,直接运行Python程序。 
COMMANDLINE_ARGS  主程序的额外命令行参数。 
IGNORE_CMD_ARGS_ERRORS  设置为任意值,使程序遇到未知的命令行参数退出时不显示错误 
REQS_FILE  启动 launch.py 安装依赖套件使用的 requirements.txt 文件名。默认值为 requirements_versions.txt 
TORCH_COMMAND   安装 PyTorch 的指令
INDEX_URL  pip 的 –index-url 参数 
TRANSFORMERS_CACHE  Transformer函数库下载的路径,以及CLIP模型相关文件的路径。 

命令行参数 

命令行参数 (command line arguments) 为启动 WebUI 时候使用的选项,写在启动指令稿的 COMMANDLINE_ARGS 后面。

注意下面是二条横线「- -」

参数指令 数值 默认值 说明
-h, –help  None   False 显示此帮助消息并退出
–exit     安装后终止程序
–data-dir  DATA_DIR  ./  用户数据保存的路径
–config CONFIG   configs/stable-diffusion/v1-inference.yaml  建构模型设置档的路径。
–ckpt CKPT model.ckpt Stable Diffusion模型的存盘点模型路径。一旦指定,该模型会加入至存盘点模型列表并加载。 
–ckpt-dir  CKPT_DIR None  存放Stable Diffusion模型存盘点模型的路径。 
–no-download-sd-model None  False 即使找不到模型,也不自动下载SD1.5模型。
 –vae-dir  VAE_PATH  None  VAE的路径
–gfpgan-dir  GFPGAN_DIR  GFPGAN/  GFPGAN路径
–gfpgan-model  GFPGAN_MODEL    models/Lora 

 –codeformer-models-path  CODEFORMER_MODELS_PATH  models/Codeformer/  Codeformer模型档的路径
–gfpgan-models-path  GFPGAN_MODELS_PATH  models/GFPGAN  GFPGAN模型档的路径
–esrgan-models-path  ESRGAN_MODELS_PATH  models/ESRGAN  ESRGAN模型档的路径
–bsrgan-models-path BSRGAN_MODELS_PATH models/BSRGAN  BSRGAN模型档的路径
–realesrgan-models-path REALESRGAN_MODELS_PATH  models/RealESRGAN  RealESRGAN模型档的路径
–scunet-models-path SCUNET_MODELS_PATH  models/ScuNET  ScuNET模型档的路径
–swinir-models-path  SWINIR_MODELS_PATH  models/SwinIR  SwinIR和SwinIR v2模型档的路径
–ldsr-models-path  LDSR_MODELS_PATH  models/LDSR  含有LDSR模型档的路径
–lora-dir  LORA_DIR models/Lora  含有LoRA模型档的路径
–clip-models-path CLIP_MODELS_PATH  None 含有CLIP模型档的路径
–embeddings-dir  EMBEDDINGS_DIR  embeddings/  Textual inversion的embeddings路径 (缺省: embeddings)
–textual-inversion-templates-dir  TEXTUAL_INVERSION_TEMPLATES_DIR  textual_inversion_templates  Textual inversion范本的路径
–hypernetwork-dir  HYPERNETWORK_DIR  models/hypernetworks/  Hypernetwork路径
–localizations-dir  LOCALIZATIONS_DIR  localizations/  本地化翻译路径
–styles-file  STYLES_FILE  styles.csv  风格文件名
–ui-config-file  UI_CONFIG_FILE  ui-config.json  取消隐藏 Gradio UI 的进度条(我们之所以将其隐藏,是因为在浏览器启动硬件加速的状况下,进度条会降低机器学习的性能)
–no-progressbar-hiding  None  False  UI设置档文件名
–max-batch-count  MAX_BATCH_COUNT  16  UI的最大批量数值
–ui-settings-file  UI_SETTINGS_FILE  config.json  UI设置值画面的文件名
–allow-code  None False 允许在WebUI运行自订指令稿
–share  None  False 使用此参数在启动后会产生Gradio网址,使WebUI能从外部网络访问
–listen  None  False 以0.0.0.0主机名称启动Gradio,使其能回应连接请求 
–port  PORT  7860  以给定的通信端口启动Gradio。1024以下的通信端口需要root权限。如果可用的话,缺省使用7860通信端口。
–hide-ui-dir-config  None False 在WebUI隐藏设置档目录。
–freeze-settings  None False 停用编辑设置。
–enable-insecure-extension-access  None False 无视其他选项,强制激活扩充功能页签。
–gradio-debug  None False 使用 –debug选项启动Gradio
–gradio-auth  GRADIO_AUTH   None 设置Gardio授权,例如"username:password",或是逗号分隔值形式"u1:p1,u2:p2,u3:p3"
–gradio-auth-path  GRADIO_AUTH_PATH   None 设置 Gardio 授权文件路径。 例如 “/路径/” 再加上--gradio-auth 的格式。
–disable-console-progressbars
 None
False  不在终端机显示进度条。
–enable-console-prompts  None False  在使用文生图和图生图的时候,于终端机印出提示词
–api None

False  以API模式启动WebUI 
–api-auth API_AUTH None 设置API授权,例如"username:password",或是逗号分隔值形式"u1:p1,u2:p2,u3:p3"
–api-log None False  激活所有API请求的纪录档
–nowebui None False  仅启动API, 不启动WebUI 
–ui-debug-mode None False  不加载模型,以更快启动WebUI
–device-id DEVICE_ID None 选择要使用的CUDA设备 (例如在启动指令稿使用export CUDA_VISIBLE_DEVICES=0或1) 
–administrator None False  使用系统管理员权限
–cors-allow-origins CORS_ALLOW_ORIGINS None 允许跨来源资源共用,列表以逗号分隔,不可有空格 
–cors-allow-origins-regex CORS_ALLOW_ORIGINS_REGEX None 允许跨来源资源共用,后面加上单一正规表达式
–tls-keyfile TLS_KEYFILE None 部份激活TLS,,需要配合–tls-certfile才能正常运作
–tls-certfile TLS_CERTFILE None 部份激活TLS,需要配合–tls-keyfile才能正常运作
–server-name SERVER_NAME None 设置服务器主机名称
–gradio-queue None False  使用Gradio queue,限制短时间内API的请求数量。实验性功能,会导致重启按钮损坏。
–skip-version-check None False  不检查torch和xformers的版本
–no-hashing None False  停用计算存盘点模型的sha256哈希值,加快加载速度
性能相关      
–xformers None False  给cross attention layers激活xformers
–reinstall-xformers None False  强制重装xformers,升级时很有用。但为避免不断重装,升级后将会移除。
–force-enable-xformers None False  强制给cross attention layers激活xformers 此选项无法运作的话请勿回报bug
–xformers-flash-attention None False  给xformers激活Flash Attention,提升再现能力 (仅支持SD2.x或以此为基础的模型) 
–opt-split-attention None False  强制激活InvokeAI的cross-attention layer优化。无CUDA的系统缺省激活此选项。
–opt-split-attention-invokeai None False  强制激活InvokeAI的cross-attention layer优化。无CUDA的系统缺省激活此选项。
–opt-split-attention-v1 None False  激活旧版的split attention优化,防止占用全部可用的VRAM,
–opt-sub-quad-attention None False  激活增进内存效率的sub-quadratic cross-attention layer优化 
–sub-quad-q-chunk-size  SUB_QUAD_Q_CHUNK_SIZE  1024  sub-quadratic cross-attention layer优化使用的kv区块大小 
–sub-quad-kv-chunk-size  SUB_QUAD_KV_CHUNK_SIZE  None sub-quadratic cross-attention layer优化使用的kv区块大小 
–sub-quad-chunk-threshold  SUB_QUAD_CHUNK_THRESHOLD  None sub-quadratic cross-attention layer优化过程中,区块化使用的VRAM阈值
–opt-channelslast None False  激活4d tensors使用的alternative layout,或许可以加快推理速度 仅适用搭载Tensor内核的Nvidia显卡(16xx系列以上)
–disable-opt-split-attention None False  强制停用cross-attention layer的优化 
–disable-nan-check None False  不检查生成图像/潜在空间是否有nan。在CI模式无使用存盘点模型的时候很有用。
–use-cpu {all, sd, interrogate, gfpgan, bsrgan, esrgan, scunet, codeformer} None 让部份模块使用CPU作为PyTorch的设备
–no-half None False  不将模型转换为半精度浮点数
–precision {full,autocast}  autocast  使用此精度评估
–no-half-vae None False  不将VAE模型转换为半精度浮点数
–upcast-sampling None False  向上采样。搭配 –no-half 使用则无效。生成的结果与使用–no-half 参数相近,效率更高,使用更少内存。
–medvram None False  激活 Stable Diffusion模型优化,牺牲速度,换取较小的 VRAM 占用。
–lowvram None False  激活Stable Diffusion模型优化,大幅牺牲速度,换取更小的VRAM占用。
–lowram None False  将 Stable Diffusion 存盘点模型的权重加载至 VRAM,而非RAM 
–always-batch-cond-uncond None False  将–medvram或–lowvram使用的无限制批量停用
功能      
–autolaunch None False  启动WebUI后自动打开系统缺省的浏览器 
–theme None False  使用指定主题启动WebUI (light或dark),无指定则使用浏览器缺省主题。
–use-textbox-seed None False  在 Web UI 的种子字段使用 textbox (没有上下,但可以输入长的种子码) 
–disable-safe-unpickle None False  不检查PyTorch模型是否有恶意代码 
–ngrok NGROK  None Ngrok授权权杖, –share参数的替代品。
–ngrok-region NGROK_REGION us 选择启动Ngrok的区域
无效选项      
–show-negative-prompt None False  无作用
–deepdanbooru None False  无作用
–unload-gfpgan None False  无作用
–gradio-img2img-tool GRADIO_IMG2IMG_TOOL  None 无作用
–gradio-inpaint-tool GRADIO_INPAINT_TOOL None 无作用

这个表格是我们下载完 stable diffusion 的文件,包含了很多的模型还有代码指令,其中也有我们要经常用到的模型文件,在后面教学部分会给大家讲解对应文件夹的选择。下一小节内容是安装的系统篇。

<<<【上一节】 安装 Stable Diffusion 前言

【下一节】安装 Stable Diffusion web — GNU/Linux安装>>>

4
查看相关话题: #stable diffusion安装教程

相关文章