![]() | |
基本资料 | |
软件名 | Stable diffusion web UI |
---|---|
开发者 | AUTOMATIC1111及该项目的其他贡献者[1] |
操作系统 | Linux、Windows8及以上、macOS 10.9及以上 |
语言 | 英文(通过扩展支持多语言) |
软件类型 | AI绘画 |
Stable diffusion web UI是由AUTOMATIC1111创作的基于Stable diffusion AI模型的AI绘画软件。
Stable diffusion web UI是一个多功能的AI绘画软件,支持以下几个功能:
允许用户通过输入一堆关键词或者一句话来生成一张图片。除此之外,还支持设置生成图片的大小,使用的随机数,采样的方式及次数等参数。除此之外,还支持批量使用同一关键词来生成若干张图片(还会自动将这些图片拼接起来)。在这里生成的图片,可以被移动到图生图或者进行上采样。
使用用户输入的一堆关键词或者一句话以及一张图片来生成一张图片(或者也可以通过输入的图片自动生成关键词)。和文生图一样,这里也支持调整一些参数。除此之外,这里还有一个局部重绘功能,允许用户选定一个区域进行重绘,同时保留区域以外的图片内容。这里生成的图片可以重新作为图生图的输入进行生成或者进行局部重绘,除此之外,用户还可以将图片送去上采样。
这部分类似于waifu2x,用户可以在这里使用上采样模型调整图片的分辨率,一次最大可以将分辨率放大到原来的16倍。输入所采用的图片可以来自于图生图、文生图,也可以来自于本地的文件夹。
这里用户可以将两个Stable diffusion系列的模型合并为一个,合并后的模型可能会生成一些不同于用于合并的两个模型的图片(仅限高级用户,可能效果不好)
这里用户可以使用自己的本地图片来训练Embedding或者Hypernetwork ,训练后的这些结构可能产生一些新的图片一般用户不要想了,你显卡没那么多显存的,这里有着非常多的设置(除非你知道这些是做什么的,不然不建议瞎改)
这里用户可以管理自己已有的扩展程序,或者从网上获取最新的扩展。扩展程序有的是给Gui使用的翻译,有的则是给软件增加了新的功能
在开始使用前请确定你的电脑安装了N卡或者A卡,并且系统必须安装Python 3.10以及Git,同时保证这两个软件在安装时都已经选择“Add to Path”。之后就可以从AUTOMATIC1111的Github仓库获取程序。如果你使用N卡,直接运行软件根目录的webui-user.bat(对于Windows用户)或webui-user.sh(对于Linux用户)即可开始安装,之后会自动下载模型、各种依赖库体积非常大,注意你的硬盘空间,最后会给出一个网址,访问这个网址即可开始使用。如果你使用A卡,那么你必须使用Linux系统,运行webui-user.sh就可以自动配置。如果你是苹果的Mac M系列的用户,那么你需要查看Installation on Apple Silicon(英文)。
鉴于此软件配置安装非常的麻烦,且由于网络环境、系统硬件的问题经常安装失败,建议绝大多数用户使用别人制作的离线整合版,直接运行启动文件就可以了。
Stable diffusion web UI官方仅支持标准的Stable diffusion模型,其他基于Stable diffusion模型训练的模型没有官方支持,故这些模型能否运行比较看脸,不过实际上兼容性似乎还可以。
如果你需要使用其他模型,可以在Stable Diffusion Models处找到一份Stable diffusion系列模型的一份不完整名单,通过这个网页可以找到这些模型的下载地址。之后只需要将下载好的模型文件(.ckpt)复制到软件根目录的models\Stable-diffusion文件夹里面。在生成图片时就可以在菜单里选择使用的模型了。
|