Diffusion-Models-Papers-Survey-Taxonomy - 拡散モデル論文、調査、および分類学

(Diffusion model papers, survey, and taxonomy)

Created at: 2022-09-12 21:54:01
Language: NULL

拡散モデル: 方法とアプリケーションの包括的な調査

このレポは、私たちの調査論文に従って拡散モデルに関する論文を収集および分類するために構築されています —拡散モデル: 方法とアプリケーションの包括的な調査

概要

画像

カタログ

アルゴリズム分類法

*サンプリング加速強化

*尤度最大化の強化

*データの一般化の強化

アプリケーションの分類

他の生成モデルとの接続

アルゴリズム分類法

1. サンプリング アクセラレーションの強化

1.1。離散化の最適化

接近・拡散・高速化: 確率的収縮による逆問題の条件付き拡散モデルの加速

スコアベースの生成モデリングへの応用による拡散シュレディンガー橋

臨界減衰ランジュバン拡散によるスコアベースの生成モデリング

スコアベースのモデルでデータを生成するときは、高速化する必要があります

拡散ベースの生成モデルの設計空間の解明

多様体上の拡散モデルの疑似数値法

DPM-Solver: 約 10 ステップで拡散確率モデルをサンプリングするための高速 ODE ソルバー

確率微分方程式によるスコアベースの生成モデリング

サンプル品質による差別化による拡散モデルの高速サンプラーの学習

Exponential Integrator による拡散モデルの高速サンプリング

1.2. 非マルコフ過程

拡散陰解モデルのノイズ除去

多様体上の拡散モデルの疑似数値法

gDDIM: 一般化されたノイズ除去拡散陰解モデル

サンプル品質による差別化による拡散モデルの高速サンプラーの学習

1.3。部分サンプリング

拡散モデルの高速サンプリングのための漸進的蒸留

拡散プロセスの早期停止による拡散モデルの加速

サンプリング速度を改善するための反復生成モデルでの知識の蒸留

打ち切られた拡散確率モデル

2. 尤度最大化の強化

2.1. ノイズ スケジュールの最適化

変分拡散モデル

改善されたノイズ除去拡散確率モデル

2.2. 学習可能な逆分散

Analytic-DPM: 拡散確率モデルにおける最適な逆分散の分析的推定

改善されたノイズ除去拡散確率モデル

2.3. 目的の設計

スコアベースの拡散モデルの最尤トレーニング

高次ノイズ除去スコア マッチングによるスコアベースの拡散 ODE の最尤トレーニング

拡散ベースの生成モデルとスコア マッチングに関する変分的視点

前方後方 SDE 理論を使用したシュレディンガー橋の尤度トレーニング

3. データ一般化の強化

3.1. 特徴空間の統合

多様体上の拡散モデルの疑似数値法

潜在空間におけるスコアベースの生成モデリング

リーマンスコアベースの生成モデリング

変分オートエンコーダーにおける拡散事前確率

3.2. データ依存遷移カーネル

GeoDiff: 分子コンフォメーション生成のための幾何学的拡散モデル

スコアベースの生成モデリングによる順列不変グラフの生成

テキストから画像への合成のためのベクトル量子化拡散モデル

離散状態空間における構造化ノイズ除去拡散モデル

Text-to-Sign ポーズ シーケンス生成のための CodeUnet を使用したベクトル量子化拡散モデル

アプリケーションの分類

1. コンピューター ビジョン

2. 自然言語処理

3. マルチモーダル学習

4.分子グラフモデリング

5.時系列モデリング

6.敵対的浄化

7. 波形信号処理

他の生成モデルとの接続

1. 変分オートエンコーダ

2. 敵対的生成ネットワーク

3. 正規化フロー

4. 自己回帰モデル

5. エネルギーベースのモデル

引用

この作業が役立つと思われる場合は、私たちの論文を引用してください。

@article{yang2022diffusion,
  title={Diffusion Models: A Comprehensive Survey of Methods and Applications},
  author={Yang, Ling and Zhang, Zhilong and Hong, Shenda and Xu, Runsheng and Zhao, Yue and Shao Yingxia and Zhang, Wentao and Yang, Ming-Hsuan and Cui, Bin},
  journal={arXiv preprint arXiv:2209.00796},
  year={2022}
}