carefree-creator - AIの魔法と無限のドローボードが出会う。

(AI magics meet Infinite draw board.)

Created at: 2022-09-13 15:40:08
Language: Jupyter Notebook
License: MIT

ノリクリエーター

さえずる

時々私の貧弱なクラウドサーバーは燃え🔥るでしょう。このセクションに示すように、タスクがキューに入れられている場所を知ることができますが、個人的には、ローカル展開を試すことを常にお勧めします。

すべての人のためのオープンソースのAI搭載のクリエイター。

このリポジトリ()にはバックエンドサーバーのコードが含まれており、十分な関心😉が得られれば、WebUIコード()もオープンソースになります。

carefree-creator
noli-creator

目次

tl;dr

  • すべての作品を保存、レビュー、編集するための無限のドローボード
  • 安定した拡散に関するほぼすべての機能(txt2img、img2img、sketch2img、バリエーション、アウトペイント、円形/タイリングテクスチャ、共有など)。
  • 多くの便利な画像編集方法(超解像、インペインティングなど)。
  • さまざまな安定した拡散バージョンの統合(ワイフ拡散など)。
  • GPU RAM の最適化により、NVIDIA GeForce GTX 1080 Ti(*) でこれらの機能を楽しむことができます。

*: プロジェクトがますます複雑になるにつれて、GPU RAM を RAM と交換するための遅延読み込み手法を導入する必要があります。詳細については、このセクションを参照してください

これを次のように考えるのが公平かもしれません:

  • AIを活用したオープンソース(*)Figma
  • より「インタラクティブ」なハグフェイススペース
  • エキサイティングで最先端のモデルをすべて一緒に試すことができる場所。

*:WebUIコードはまだオープンソースではありませんが、本当に役立つ😉場合はオープンソース化させていただきます。

WebUIとローカル展開

これがグーグルコラボの解決策です(推奨!

これがローカルインストールガイドです。

(かなり)スタンドアロンのFastAPIサービスであるため、ホストされているWebUIをローカルサーバーと一緒に使用することが可能です。実際、私たちはすでにあなたのためのスイッチを提供しています:

carefree-creator

ローカルサーバーを使用

左端の手描きの猫は私の創造物であり、右側🤣で少し「美化」するのを助けてくれました。

carefree-creator

実行方法を紹介しますこのセクションでは。

sketch2img

物事を派手にするために、私たちはそれを「分散型展開方法」と呼ぶことができます(🤨)。とにかく、ローカル展開では、自分のマシンを利用して、貧弱なクラウドサーバーが1〜数分イメージを生成するのを待つ必要がなくなります。さらに、自分でデプロイしたので、永久に無料になります!

これはまた、厄介なWebUIパーツを処理するため、後でシームレスに統合できるクールなモデルとアルゴリズムの開発に集中できるようにするという目標も明らかにしています。

carefree-creator

また、ローカルにデプロイする可能性があるため、貧弱なクラウドサーバーを更新するのを待つ必要はありません。あなたは単ににプルリクエストをすることができますそして私に教えてください:ねえ、この機能をWebUI😆に入手してください。そして、WebUIを更新した後、あなたはすでにあなたのローカルマシンでそれを試すことができます!

carefree-creator

そしてもちろん、前述のように、十分な関心が得られれば、WebUIコードも喜んで開きます。この場合、あなたは全体のサイクルを完了する能力を持つでしょう:あなたはあなた自身のモデルを開発し、それらをラップしてAPIを公開し、これらのAPIと対話するようにWebUIを変更し、そして楽しむことができます!プライベートにしたい場合は自分のフォークを保持することも、メインフォークにプルリクエストを行って世界中の誰もがあなたの作品を楽しむこともできます!

画像生成機能

画像生成機能は、作成したいが対応するスキルが不足している人(私の🤣ように)に、まったく新しい世界を開きます。ただし、一度に1つ(または2つ)の画像を簡単に確認/編集できないと、予想よりも作成が難しくなります。そのため、生成されたすべての画像を1つの無限のドローボードに配置し、ほぼすべてのクールな画像生成機能を一緒に試すことをサポートしています。

このセクションにリストされている機能は、左側の画像アイコンの後ろに隠れています。

画像生成アイコン

テキストから画像へ

これは最も基本的で基本的な機能です。

テキストから画像へ

しかし、私たちはさらに何かを追加しました。たとえば、スタイルを選択できます。

スタイル付きのテキストから画像へ

ご覧のとおり、他にもいくつかのオプションがあります-次のセクションでそれらのほとんどについて説明します。

バリエーションの生成

.GIF バリエーション生成

私たちがサポートする非常に強力な機能は、バリエーションを生成することです。次の素敵なポートレートを生成したとしましょう。

komeiji koishi

公明寺小石

すでに強調したように、バリエーション生成と呼ばれるパネルがあります。をクリックするだけですその中のボタンをクリックして、何が起こるかを確認します。

Generate

公明寺小石

別の登場!

komeiji koishi

調整できることに気付いたかもしれませんバリエーションのうち、生成された画像が元の画像とどの程度「類似」するかを示します。少し下げることで、さらに興味深い結果を得ることができます。

Fidelity

公明寺小石

涼しい!

そして、生成されたバリエーションに基づいてバリエーションを生成してみませんか?

公明寺小石

最後はどういうわけかの😆アートスタイルを模倣しています!

komeiji koishi
ZUN

画像にスケッチ

.GIF バリエーション生成

指定されたプロンプトでスケッチを画像に「翻訳」することをサポートします。必須ではありませんが、「空のノード」(上部に「プラス」アイコン)を「キャンバス」として追加して描画することをお勧めします。

空のノードの追加

空のノードを選択すると、左側にパネルが表示されます。このセクションでは、その使用法について説明します。

Outpainting

「キャンバス」の準備ができたら、「ブラシ」をトリガーして描画を開始できます。

ドローイング

位置は実際には重要ではありません、私たちはそれを私たちのサーバーに😉アップロードする前に常にあなたのスケッチを中央に配置します。

素晴らしいスケッチに満足したら、右側のボタンをクリックすると、図面が選択可能なノードに変わり、左側にパネルが表示されます。

Finish
Image Translation

画像翻訳

ご覧のとおり、プレビュースケッチには「キャンバス」が含まれていないため、「キャンバス」は不要であると述べました。

スケッチがサーバーにアップロードされると、背景が白色で塗りつぶされるため、白色を使用して描画😆しないでください。

いくつかの関連テキストを入力した後、下にスクロールできますパネルをクリックして、 ボタン:

Image Translation
Translate

画像-翻訳-送信

そして、結果は数秒でポップアップ表示されます。

画像変換結果

悪くありません!

もう一つ

あなたは実際にあなたの図面が認識されるかどうかを心配する必要はありません - それは安定した拡散がそれらを😆かなり認識することができることがわかります:

画像変換ワイルド

一般的な画像から画像への変換

概念を説明するために組み込みのスケッチから画像への変換を使用していますが、実際には一般的な手法であるため、実際にはどの画像にも適用できます。たとえば、生成された画像に適用できます。

Image Translation
img2img

画像翻訳一般

詳細が追加されているようです!

このテクニックを使用すると、実際に自分の画像(たとえば、子供が描いた絵画)をアップロードして、「アート作品」に変えることができます。

画像翻訳一般

円形(タイリング)テクスチャの生成

.GIF バリエーション生成

では、円形テクスチャとは何ですか?円形テクスチャは、一緒に「並べて」配置できる画像であり、対応するスイッチを切り替えることでそのようなテクスチャを生成するように指定できます。

carefree-creator

円形テクスチャ

うーん、特別なことは何もありませんよね?これは、魔法はそれらを一緒に「並べて」いる場合にのみ発生するためです。

円形テクスチャタイル

より良いアニメ画像を生成する

Waifu Diffusionのおかげで、対応するスイッチを切り替えることで、より良いアニメ画像を生成できます。

ワイフ拡散

否定プロンプト

生成された画像を選択すると、左側にパネル:

Negative Prompt

否定プロンプト

選択した画像にネガティブプロンプトを適用できる場所:

否定プロンプト結果

パラメータの検査/コピー/インポート

x拡散モデルが良好な画像を生成するために優れた「プロンプト」を必要とすることはよく知られていますが、何が優れた「プロンプト」になるのかは謎のままです。したがって、生成されたすべての画像のパラメータの検査をサポートしています。

検査パラメータ

あなたはコピーすることができます少しボタンで、コピーした 次に貼り付けることができます左側のパネル:

parameters
Copy
parameters
Parameters to Image

イメージに対するパラメータ

このようにして、すべての作品は共有可能で、再現可能で、(ある種)理解可能になります!

🌟高度な使用法

をコピー/インポートする機能により、WebUIにまだ導入されていない「最先端の」機能に実際にアクセスできます。たとえば、調整できないことにすでに気づいているかもしれません,,, ...生成プロセスの、しかし我々は実際にそれらを設定することができます:

parameters
seed
steps
guidance_scale
parameters

{
  "type": "txt2img",
  "data": {
    "w": 704,
    "h": 512,
    "text": "a beautiful, fantasy landscape, HD",
    "use_circular": false,
    "is_anime": false,
    "seed": 692615800,
    "num_steps": 50,
    "guidance_scale": 7.5,
    "timestamp": 1665914359287
  }
}

かなり簡単ですね。😉

プリセット

本当に派手な画像(最近インターネットを飛び回っている画像など)を生成したい場合は、プリセットを使用することをお勧めします。

そして、前のセクションで説明した機能を活用することで、これらの結果の背後にあるプロンプト/パラメーターが使用されていることを理解し、これらのモデルをマスターする方法を「学ぶ」ことができます。

Inspect Parameters

プリセットカプセルを使用する

下にスクロールするとパネル、あなたは多くの「カプセル」を含むセクション:

Text to Image
Try these out!

プリセットカプセル

これらのカプセルのいずれかをクリックすると、対応する画像が生成されます。

プリセットパネルを使用

また、左側にプリセットパネル(小さなポケモンのような素敵なアイコン🤣)もあります。

プリセットパネル

現在、猫の生成のみをサポートしていますが、将来的にはさらに追加される予定です(たとえば、犬の🐶生成)!🐱

アウトペインティング(実験的)

実際、アウトペイントアルゴリズムをサポートしていますが、正直に言うと、この場合、安定拡散モデルはDALLE·2モデルほど良くありません。だから私は単にここに単一画像のデモンストレーションを置きます:

アウトペインティング

  • 0-空のノードを作成し、アウトペイントする領域にドラッグします
    • 元の画像の「下」に配置する必要があります。キーボードショートカットは ウィンドウズ用 そして Mac用。
      ctrl+[
      cmd+[
  • 1-を展開します左側で:
    Outpainting
    • テキストエリアにいくつかのテキストを入力します。
    • をクリックします ボトン.
      Mark as Outpainting Area
      • このアクションで、素敵な小さなプレビュー画像がテキスト領域の上にポップアップ表示されます。
  • 2-をクリックしますボタンをクリックして、結果を待ちます。
    Outpaint

いくつかの間抜けな結果が表示される🤣可能性があります。この場合、元に戻すことができます/もう一度試してください。(たぶん)最終的に、あなたは素晴らしい結果を得るでしょう。

ctrl+z
cmd+z

しかし、ここにはいくつかのトリックがあります。生成された画像をアウトペイントしようとしている場合は、生成されたすべてのイメージのパラメータをコピーできるため、まったく同じプロンプトを使用してアウトペイントしてみませんか。

同じプロンプトによるアウトペイント

それは本当に長いプロンプト😆です!

そして数回試した後、私はこの結果を得ます:

アウトペイント結果

まだ良いとはほど遠いですが、それは非常に興味深いです!

ランドスケープ合成(実験的)

.GIF バリエーション生成

もう一つの興味深い機能は、次のようなランドスケープ合成を実行できることです。

GauGAN

ランドスケープ-合成-結果

しかし、繰り返しになりますが、結果はまったく予測できないので、ここに単一画像のデモンストレーションを置きます。

ランドスケープ合成

  • 0-ツールバーの横向きアイコンをクリックすると、「横向きの描画」モードに入ります。
  • 1-マウスダウンとマウスアップごとに風景の領域を描画します。その前に、右側のパネルに描画する風景のタイプを選択できます。
  • 2-ドローボード上の好きな場所に描くことができますが、すべてをまとめておくことをお勧めします。
  • 3-素晴らしいスケッチに満足したら、をクリックします右側のボタンをクリックすると、図面が選択可能なノードに変わり、右側にボタンが表示されます。
    Finish
    Landscape Synthesis

ランドスケープ-合成-提出

それをクリックすると、数秒で結果がポップアップ表示されます。

ランドスケープ-合成-提出

良いとはほど遠いですが、それほど悪くはありません!

生成される画像のサイズを決定するものは何ですか?

生成された画像はスケッチと同じサイズになるため、気付かずに誤って巨大なスケッチを送信すると危険です。

ランドスケープ合成危険

スケッチは小さく見えますが、実際のサイズは!!これは、グローバルスケーリングをサポートしており、いくつかの巨大なものがドローボード上で「小さく見える」ために発生しました。

6765.1 x 4501.5

あなたの例には多くの「穴」がありますが、それらは重要ですか?

私はこれらの穴を埋めるために「最も近い検索」のようなものを実装したので、心配しないでください:ほとんどの場合、それらは期待どおりに機能するはずです!

画像処理機能

画像生成機能とは別に、任意の画像で使用できるスタンドアロンの画像処理機能もいくつか提供しました。ここでの目標は、1回または数回クリックするだけで難しいことを実行できるAIを利用したツールボックスを提供することです。

このセクションにリストされている機能は、左側の魔法の杖のアイコンの後ろに隠れています。

画像処理アイコン

超解像

生成された画像が十分に高解像度ではないことを心配していますか?次に、超解像機能が役立ちます。

超解像

2つのボタンがあります:と。これらは基本的に2つのバージョンであり、前者は「一般的な」SRソリューションであり、後者はアニメ写真に対していくつかの最適化を行います。

Super Resolution
Super Resolution (Anime)
Real ESRGAN

これらのボタンのいずれかをクリックすると、数秒で高解像度の画像が表示されます。

超解像

ご覧のとおり、結果はベクターグラフィックのように見えます。

すでにSRされたイメージをSRすることはできますが、イメージサイズは指数関数的に(それぞれ)増加し、すぐに私の(またはローカルに展開した場合はあなたの)マシン😮を爆発させます。

4x

インペインティング

.GIF バリエーション生成

生成された画像のごく一部だけがあなたが望むものではないことに悩まされていますか?その後、私たちのインペインティング機能が助けになります。素敵なポートレートを生成したとしましょうが、奇妙なものがあることに気付くかもしれません。

hakurei reimu

インペインティング-イニシャル

それでは、私たちツールを使用して、奇妙な領域を「上書き」しましょう。

brush

インペインティングブラシ

  • 0-ツールバーのブラシアイコンをクリックすると、「ブラッシング」モードに入ります。
  • 1-トリガー 右側のモードなので、領域を描くと便利です。
    Use Fill
  • 2-ターゲット領域の輪郭を描き、モードは中心を埋めるのに役立ちます。
    Use Fill

色は任意の色にすることができ、緑😉である必要はありません。

クリックした後右側のボタンをクリックすると、図面が選択可能なノードに変わり、左側のパネルを使用できるようになります。

Finish
Inpainting

インペインティングブラシ

  1. をクリックします図面をマスクとしてマークします。
    Mark as Inpainting Mask
  2. ポートレートをクリックし、をクリックしますポートレートを背景画像としてマークします。
    Mark as Image

次に、ボタンが利用可能になり、それをクリックして結果を待ちます。

Inpaint

インペインティング-提出

悪くありません!しかし、私たちはもっと何かすることができますか?

...はい!ペイントされた画像に適用できます。そして、これが最終結果です:

Super Resolution (Anime)

インペインティングファイナル

完璧ではありませんが、私がしたことはクリックするだけで済むので、かなり満足しています😆

取り付け

carefree-creator
の上に構築され、以下を必要とします。
carefree-learn

  • パイソン3.8 / 3.9
    • 他のPythonバージョンと互換性がありません(関連問題:#9)まだですが、改善しようとしています!
  • pytorch>=1.12.0
    .PyTorch の公式ウェブサイトを参照し、コンダでPyTorch をプレインストールすることを強くお勧めします。

ハードウェア要件

Related issue: #10.

This project will eat up 11~13 GB of GPU RAM if no modifications are made, because it actually integrates FOUR different SD versions together, and many other models as well 🤣.

There are two ways that can reduce the usage of GPU RAM:

  • Uncomment this line. After that, we will first load the models to RAM and then use GPU RAM only when needed!
    • But as an exchange, your RAM will be eaten up!
  • Reduce the models that are loaded. For example, you can comment out the following lines.
    • If that's not enough, you can comment out this line.
    • If that's still not enough, you can comment out this line.
    • If that's still not enough... Then maybe you can try the Google Colab based solution 😆.

Prepare

git clone https://github.com/carefree0910/carefree-creator.git
cd carefree-creator

pip installation

pip install -e .

Run

uvicorn apis.interface:app --host 0.0.0.0 --port 8123

Docker

Prepare

export TAG_NAME=cfcreator

Build

docker build -t $TAG_NAME .

If your internet environment lands in China, it might be faster to build with :

Dockerfile.cn

docker build -t $TAG_NAME -f Dockerfile.cn .

Run

docker run --gpus all --rm -p 8123:8123 -v /full/path/to/your/client/logs:/workplace/apis/logs $TAG_NAME:latest

Q&A

Where are my creations stored?

They are currently stored on my poor cloud server, and I'm planning to support storing them on your local machines!

How do I save / load my project?

We will perform an auto-save everytime you make some modifications, and will perform a period saving every minute, to the of your browser. However, I have to admit that they are not as reliable as it should be, so you can download the whole project to your own machines:

localStorage

download-project

This will download a file, which contains all the information you need to fully reconstruct the current draw board. You can then import these files later with the menu option (right above the option).

.noli
.noli
Import Project
Download Project

How can I contribute to ?
carefree-creator

carefree-creator
is a FastAPI-based service, and I've already made some abstractions so it should be fairly easy to implement a new .
Algorithm

The development guide is on our TODO list, but here are some brief introductions that might help:

  1. the file is a good reference.
    cfcreator/txt2img.py
  2. create a new file under the directory, and in this file:
    cfcreator
    1. define the endpoint of your service.
    2. register
      an , which should contain an method and a method.
      Algorithm
      initialize
      run
  3. go to file and import your newly implemented modules here.
    cfcreator/__init__.py

How can I get my own models interactable on the WebUI?

Related issue: #8.

As long as we open sourced the WebUI you can implement your own UIs, but for now you can contribute to this repo and then ask me to do the UI jobs for you (yes, you can be my boss 😆).

carefree-creator

But is there a handy way? For example, put my checkpoints somewhere and being able to access them?

If you need a handy method (e.g. placing any in some directory and get it working), it is currently not supported (it's on my TODO though), but we have:

*.ckpt

Advanced way

I haven't documented these stuffs yet, but here are some brief guides:

  1. The local APIs are exposed from here on.

↑ You can ignore this if you just want to change the existing models, instead of introducing new models / endpoints / features!

  1. The APIs are implemented in txt2img.py and img2img.py.

  2. I'm currently using my own library (carefree-learn) to implement the APIs, but you can re-implement the APIs with whatever you want! Take the basic feature as an example:

    text2img

    a. Rewrite the

    initialize
    method, where you can initialize your models. b. Rewrite the
    run
    method, where you need to generate the output (image) based on the input (the , which contains almost all the necessary arguments)
    Txt2ImgSDModel

Once all the modifications are done (on your own fork / a PR to a new branch of this project), you can modify the section in the Google Colab, and change this line:

Install carefree-creator

!git clone https://github.com/carefree0910/carefree-creator.git

into the corresponding git-clone-url, so the Colab will install your own customized version and serve it!

Feel free to create issues if you encountered any trouble! 😆

API Mappings

Here are the mappings between and :

endpoint
feature

  • txt2img_sd_endpoint
    ,
    Text to Image
    Generate Cats
  • txt2img_sd_inpainting_endpoint
    Erase & Replace
  • txt2img_sd_outpainting_endpoint
    Outpainting
  • img2img_sd_endpoint
    Image Translation
  • img2img_sr_endpoint
    Super Resolution
  • img2img_inpainting_endpoint
    Inpainting
  • img2img_semantic2img_endpoint
    Landscape Synthesis

And there are some features that depend on multiple endpoints:

  • Parameters to Image
    all endpoints
  • Variation Generation
    sd endpoints
  • Negative Prompt
    sd endpoints

Why no ?
GFPGAN

That's because I think generating real human faces might not be a good practice for , so currently I'm not going to develop tool chains around it. If you encountered some scenarios that truly need it, feel free to contact me and let me know!

carefree-creator

Is it FREE?

It will ALWAYS be FREE if:

  • You are using local deployment (Recommended!).
  • You are using my own poor cloud server.

For the second situation, if more and more people are using this project, you might be waiting longer and longer. You can inspect where the positions of your tasks are in the waiting queue here:

pending-panel

The number after will be the position. If it is ridiculously large... Then you may try local deployment, or some business will go on (accounts, charges for dedicated cloud servers, etc) 🤣.

pending

As long as this project is not as famous as those crazy websites, even my poor cloud server should be able to handle the requests, so you can consider it to be FREE in most cases (Not to mention you can always use local deployment) 😉.

Do you like cats?

I LOVE cats. They are soooooo CUTE.

What about dogs?

Dogs are cute as well, but I got bitten when I was young so...

Why did you build this project?

I've been a big fan of Touhou since 10 years ago, and one of my biggest dreams is to make an epic Touhou fan game.

It wouldn't be possible because I can hardly draw anything (🤣), but now with Stable Diffusion everything is hopeful again.

So the initial reason of building this project is simple: I want to provide a tool that can empower anyone, who is suffering from acquiring game materials, the ability to create ones on their own. That's why we put pretty much attention on the Variation Generation feature, since this is very important for creating a vivid character.

Stable Diffusion gives me some confidence, and Waifu Diffusion further convinced my determination. Many thanks to these great open source prjects!!!

And as the development goes on, I figure out that this tool has more potential: It could be the 'Operation System' of the AI generation world! The models/algorithms serve as the , and your creations serve as the . You can always review/edit your with the , as well as sharing/importing them.

softwares
files
files
softwares

In the future, the should be easy to implement/publish/install/uninstall, and the should be able to store at cloud/local machine (currently they are all on cloud, or, on my poor cloud server 🤣).

softwares
files

This will further break the wall between the academic world and the non-academic world. The Hugging Face Space is doing a good job now, but there are still three pain points:

  • Its interaction is usable, but still quite restricted.
  • The results are generated one after another, we cannot review/edit the results that are generated 5 minutes ago.
  • The service is deployed at their own servers, so you have to wait if their servers are busy / not GPU accelerated.

And now, with the ability to do local deployment, along with the fantastic infinite draw board as the WebUI, these pain points will all be solved. Not to mention with some inference technique (such as the from ), it is possible to deploy huge, huge models even on your laptop, so don't worry about the capability of this system - everything will be possible!

ZeRO
deepspeed

How is this different from other WebUIs?

Related issue: #11.

I think the main difference is that this project:

  1. separates the frontend and the backend, so you can either make your own frontend, or focus on developing the backend and 'requires' the frontend from me.
  2. provides an easier, smoother, and more 'integrated' way for users to enjoy multiple AI magics together. The extremely popular automatic1111 repo is great, and can somehow do the tricks, but in general it is sort of a one-pass-generation-tool, and the workflow is linear. This project on the other hand has a non-linear workflow, and gives you more freedom to combine various techniques and create something that a single AI model can hardly achieve.
  3. can integrate many other techniques as well. Here's my future plan: I'm going to integrate natural language generation, music generation, video generation... Into this project, so you can make something really cool with and only with AI 😆!

Will there be a Discord Community?

UPDATE: Here's the related issue!

Unfortunately I'm not familiar with Discord, so if someone can help me build it I will be really appreciated!

What is ???
Nolibox

Nolibox
is a startup company where I'm currently working for. Although I have to put the logo everywhere, this project is rather independent and will not be restricted 😉.

Known Issues

  • Undo / Redo in the header toolbar will be messed up when it comes to the 'brushing' mode and 'landscape' mode.
  • これの2つ以上のタブを開いた場合、データはクラウドに保存されず、ブラウザに保存されるため、節約が台無しになります。
    creator
    localStorage
  • インペインティングマスクを削除してから削除を元に戻すと、別のノードをインペインティングマスクとして設定してから元に戻すまで、インペインティングマスクのプレビューイメージは表示されなくなります。

藤堂

  • [ ] ユーザー・ガイド
  • [ ] 開発ガイド
  • [ ] その他のAI生成技術
    • [ ] 自然言語生成(NLG)
    • [ ] 音楽生成
    • [ ] ビデオ生成
  • [ ] カスタム・チェックポイントを使用する便利な方法
  • []テキスト反転
  • []より良いアウトペイント技術
  • []そしてはるかに...

クレジット

  • 安定拡散、さまざまな生成方法の基盤。
  • ワイフ拡散、安定した拡散のアニメ微調整バージョン。
  • リアルESRGAN、採用された超解像方法。
  • 潜在拡散、採用されたインペインティング&ランドスケープ合成法。
  • carefree-learn、上記のすべてのモデルを再実装し、クリーンで便利なAPIを提供したコードベース。
  • それで、あなたは!ご覧いただきありがとうございます!