stable-diffusion-webui - 基于 Gradio 库的浏览器界面,用于稳定扩散。

Created at: 2022-08-22 22:05:26
Language: Python
License: AGPL-3.0

稳定的扩散网页用户界面

基于Gradio库的浏览器界面,用于稳定扩散。

特征

带有图像的详细功能展示

  • 原始 txt2img 和 img2img 模式
  • 一键安装并运行脚本(但你仍然必须安装 python 和 git)
  • 外涂
  • 修复
  • 彩色素描
  • 提示矩阵
  • 稳定的扩散高档
  • 注意,指定模型应更注意的文本部分
    • 一个男人在 - 会更关注燕尾服
      ((tuxedo))
    • a 中的男人 - 替代语法
      (tuxedo:1.21)
    • 选择文本并按下 或(或者,如果你使用的是 MacOS)以自动调整对所选文本的注意力(由匿名用户提供的代码)
      Ctrl+Up
      Ctrl+Down
      Command+Up
      Command+Down
  • 环回,多次运行 img2img 处理
  • X/Y/Z 图,一种绘制具有不同参数的图像三维图的方法
  • 文本反转
    • 拥有任意数量的嵌入,并使用你喜欢的任何名称
    • 使用多个嵌入,每个令牌具有不同数量的向量
    • 适用于半精度浮点数
    • 在 8GB 上训练嵌入(也有 6GB 工作的报告)
  • 附加选项卡包含:
    • GFPGAN,修复人脸的神经网络
    • CodeFormer,面部恢复工具作为GFPGAN的替代品
    • RealESRGAN,神经网络升频器
    • ESRGAN,具有许多第三方模型的神经网络升频器
    • SwinIR和Swin2SR(见这里),神经网络升频器
    • LDSR,潜在扩散超分辨率放大
  • 调整宽高比选项
  • 取样方法选择
    • 调整采样器η值(噪声倍增器)
    • 更高级的噪音设置选项
  • 随时中断处理
  • 4GB视频卡支持(也报告2GB工作)
  • 批次的正确种子
  • 实时提示令牌长度验证
  • 生成参数
    • 用于生成图像的参数与该图像一起保存
    • 在 PNG 块中表示 PNG,在 EXIF 中表示 JPEG
    • 可以将图像拖动到 PNG 信息选项卡以恢复生成参数并自动将其复制到 UI 中
    • 可以在设置中禁用
    • 将图像/文本参数拖放到提示框
  • 读取“生成参数”按钮,将提示框中的参数加载到 UI
  • “设置”页
  • 从 UI 运行任意 python 代码(必须运行才能启用)
    --allow-code
  • 大多数 UI 元素的鼠标悬停提示
  • 可以通过文本配置更改UI元素的默认值/混合/最大/步长值
  • 平铺支持,用于创建可以像纹理一样平铺的图像的复选框
  • 进度条和实时图像生成预览
    • 可以使用单独的神经网络生成预览,几乎不需要VRAM或计算
  • 否定提示,一个额外的文本字段,允许你列出你不想在生成的图像中看到的内容
  • 样式,一种保存部分提示并在以后通过下拉列表轻松应用它们的方法
  • 变体,一种生成相同图像但差异很小的方法
  • 种子大小调整,一种生成相同图像但分辨率略有不同的方法
  • CLIP询问器,一个想从图像中猜测提示的按钮
  • 提示编辑,一种改变提示中一代的方法,比如开始制作西瓜并中途切换到动漫女孩
  • 批处理,使用 img2img 处理一组文件
  • Img2img 交叉注意力控制的反向欧拉方法
  • 高分辨率修复,一种方便的选项,只需单击一下即可生成高分辨率图片,而不会产生通常的失真
  • 动态重新加载检查点
  • 检查点合并,一个选项卡,允许你将最多 3 个检查点合并为一个
  • 具有来自社区的许多扩展的自定义脚本
  • 可组合扩散,一种同时使用多个提示的方法
    • 使用大写字母分隔提示
      AND
    • 还支持提示的权重:
      a cat :1.2 AND a dog AND a penguin :2.2
  • 提示没有令牌限制(原始稳定扩散允许你使用最多 75 个令牌)
  • 深度丹布鲁集成,为动漫提示创建丹布鲁风格标签
  • xformers,选择卡的主要速度提高:(添加到命令行参数)
    --xformers
  • 通过扩展:历史记录选项卡:在UI中方便地查看,定向和删除图像
  • 永久生成选项
  • “训练”选项卡
    • 超网络和嵌入选项
    • 预处理图像:裁剪、镜像、使用 BLIP 或 deepdanbooru 自动标记(用于动漫)
  • 剪辑跳过
  • 超网络
  • Loras(与Hypernetworks相同,但更漂亮)
  • 一个备用 UI,你可以在其中选择将哪些嵌入、超网络或 Loras 添加到你的提示中,并带有预览
  • 可以从设置屏幕选择加载不同的VAE
  • 进度条中的估计完成时间
  • 应用程序接口
  • 支持RunwayML的专用修复模型
  • 通过扩展:美学渐变,一种通过使用剪辑图像嵌入(https://github.com/vicgalle/stable-diffusion-aesthetic-gradients 的实现来生成具有特定美学的图像的方法)
  • 稳定的扩散 2.0 支持 - 有关说明,请参见 wiki
  • Alt-扩散支持 - 有关说明,请参阅维基
  • 现在没有任何坏信!
  • 以安全张量格式加载检查点
  • 放宽分辨率限制:生成的图像的支配必须是 8 的倍数而不是 64
  • 现在有了许可证!
  • 从设置屏幕对 UI 中的元素重新排序

安装和运行

确保满足所需的依赖项,并按照适用于 NVidia(推荐)和 AMD GPU 的说明进行操作。

或者,使用在线服务(如谷歌合作):

使用发布包在具有 NVidia-GPU 的 Windows 10/11 上安装

  1. v1.0.0-pre 下载并提取其内容。
    sd.webui.zip
  2. 跑。
    update.bat
  3. 跑。
    run.bat

有关更多详细信息,请参阅在 NVidia-GPU 上安装和运行

在视窗上自动安装

  1. 安装 Python 3.10.6(较新版本的 Python 不支持 torch),选中“将 Python 添加到 PATH”。
  2. 安装 git
  3. 下载稳定扩散 webui 存储库,例如通过运行 .
    git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
  4. 以正常、非管理员、用户身份从 Windows 资源管理器运行。
    webui-user.bat

在 Linux 上自动安装

  1. 安装依赖项:
# Debian-based:
sudo apt install wget git python3 python3-venv
# Red Hat-based:
sudo dnf install wget git python3
# Arch-based:
sudo pacman -S wget git python3
  1. 导航到要安装 webui 的目录并执行以下命令:
bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)
  1. 跑。
    webui.sh
  2. 检查选项。
    webui-user.sh

安装在苹果硅上

在此处查找说明。

贡献

下面介绍如何向此存储库添加代码: 贡献

文档

文档已从本自述文件移至项目的 wiki

为了让谷歌和其他搜索引擎抓取维基,这里有一个链接,指向(不适合人类)可抓取维基

捐赠

借用代码的许可证可以在屏幕和文件中找到。

Settings -> Licenses
html/licenses.html