(仕掛品)コントロールネットのWebUI拡張機能
この拡張機能は、AUTOMATIC1111の安定した拡散Web UI用であり、Web UIが元の安定した拡散モデルにControlNetを追加して画像を生成できるようにします。追加はその場で行われ、マージは必要ありません。
ControlNetは、条件を追加することで拡散モデルを制御するニューラルネットワーク構造です。
ありがとう&インスピレーション: kohya-ss/sd-webui-additional-networks
scripts/cldm.py)
一部のユーザーは、使用する前にcv2ライブラリをインストールする必要があるかもしれません。
pip install opencv-python
UI の問題が発生した場合は、gradio をアップグレードします。
pip install gradio==3.16.2
.pt
.pth
.ckpt
.safetensors
sd-webui-controlnet/models
現在、フルモデルとトリミングモデルの両方をサポートしています。元のファイルからコントロールネットを抽出するために使用します。
extract_controlnet.py
.pth
事前トレーニング済みモデル: https://huggingface.co/lllyasviel/ControlNet/tree/main/models
モデルのファイルサイズを小さくするには、次の 2 つの方法があります。
を使用して、元の.pthファイルからコントロールネットを直接抽出します。
extract_controlnet.py
を使用して差分を作成することにより、元のチェックポイントから制御を転送します。
extract_controlnet_diff.py
すべてのタイプのモデルを正しく認識してロードできます。さまざまな抽出方法の結果を https://github.com/lllyasviel/ControlNet/discussions/12 と https://github.com/Mikubill/sd-webui-controlnet/issues/73 で説明します。
事前抽出モデル: https://huggingface.co/webui/ControlNet-modules-safetensors
事前抽出差分モデル: https://huggingface.co/kohya-ss/ControlNet-diff-modules
現在、スケッチアダプタとイメージアダプタの両方をサポートしています。implは実験的なものであり、結果は元のリポジトリとは異なる場合があります。参考までに「」を参照してください。
Adapter Examples
これらのモデルを使用するには:
sketch_adapter_v14.yaml
image_adapter_v14.yaml
源 | インプット | アウトプット |
---|---|---|
(プリプロセッサなし) | ![]() |
![]() |
(プリプロセッサなし) | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
インプット | アウトプット |
---|---|
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
--xformers
Low VRAM