dalle-mini - DALL・EMini-テキストプロンプトから画像を生成

(DALL·E Mini - Generate images from a text prompt)

Created at: 2021-07-04 02:04:37
Language: Python
License: Apache-2.0

DALL・Eミニ

Discordにご参加ください

テキストプロンプトから画像を生成する

私たちのロゴは、「アボカドの形をしたアームチェアのロゴ」というプロンプトを使用して、DALL・Eminiで生成されました。

それの使い方?

DALL・Eminiを使用して独自の画像を作成する方法はいくつかあります。

コミュニティからのこれらの素晴らしいプロジェクトを使用することもできます。

  • DALL-E Playgroundリポジトリを使用して独自のアプリをスピンオフします( Saharに感謝)

  • Human-in-the-Loopワークフローでの生成、拡散、アップスケーリングのためのDALL・EFlowプロジェクトをお試しください( Han Xiaoに感謝)

    Colabで開く

それはどのように機能しますか?

レポートを参照してください。

貢献

LAIONDiscordのコミュニティに参加してください。問題の報告から修正/改善の提案、クールなプロンプトでのモデルのテストまで、どんな貢献も歓迎します!

発達

依存関係のインストール

推論の場合のみ、を使用して

pip install git+https://github.com/borisdayma/dalle-mini.git
ください。

開発には、リポジトリのクローンを作成してを使用します

pip install -e ".[dev]"
。PRを作成する前に、でスタイルを確認してください
make style

DALL・Eminiのトレーニング

を使用し

tools/train/train.py
ます。

ハイパーパラメータ検索を実行する必要がある場合は、スイープ構成ファイルを調整することもできます。

よくある質問

最新モデルはどこにありますか?

訓練されたモデルは🤗モデルハブ:

ロゴはどこから来たのですか?

「アボカドの形をしたアームチェア」は、モデルの機能を説明するためにDALL・EをリリースするときにOpenAIによって使用されました。このプロンプトで予測を成功させることは、私たちにとって大きなマイルストーンを表しています。

謝辞

著者と寄稿者

DALL・Eminiは当初、以下によって開発されました。

それをより良くするのを助けてくれた人々に感謝します:

DALL・Eminiを引用

DALL・E miniが研究に役立つと思われる場合、または参照したい場合は、次のBibTeXエントリを使用してください。

@misc{Dayma_DALL·E_Mini_2021,
      author = {Dayma, Boris and Patil, Suraj and Cuenca, Pedro and Saifullah, Khalid and Abraham, Tanishq and Lê Khắc, Phúc and Melas, Luke and Ghosh, Ritobrata},
      doi = {10.5281/zenodo.5146400},
      month = {7},
      title = {DALL·E Mini},
      url = {https://github.com/borisdayma/dalle-mini},
      year = {2021}
}

参考文献

「ゼロショットテキストから画像への生成」からのオリジナルのDALL・Eと「自然言語監視からの転送可能な視覚モデルの学習」からの画像量子化。

「高解像度画像合成のためのトランスの飼いならし」からの画像エンコーダ。

「 BART:自然言語の生成、翻訳、および理解のためのシーケンス間の事前トレーニングのノイズ除去」に基づくシーケンス間モデルと、いくつかのバリアントの実装:

「ディープラーニングのためのスケーラブルな2次最適化」のメインオプティマイザー(分散シャンプー)。

引用

@misc{
  title={Zero-Shot Text-to-Image Generation}, 
  author={Aditya Ramesh and Mikhail Pavlov and Gabriel Goh and Scott Gray and Chelsea Voss and Alec Radford and Mark Chen and Ilya Sutskever},
  year={2021},
  eprint={2102.12092},
  archivePrefix={arXiv},
  primaryClass={cs.CV}
}
@misc{
  title={Learning Transferable Visual Models From Natural Language Supervision}, 
  author={Alec Radford and Jong Wook Kim and Chris Hallacy and Aditya Ramesh and Gabriel Goh and Sandhini Agarwal and Girish Sastry and Amanda Askell and Pamela Mishkin and Jack Clark and Gretchen Krueger and Ilya Sutskever},
  year={2021},
  eprint={2103.00020},
  archivePrefix={arXiv},
  primaryClass={cs.CV}
}
@misc{
  title={Taming Transformers for High-Resolution Image Synthesis}, 
  author={Patrick Esser and Robin Rombach and Björn Ommer},
  year={2021},
  eprint={2012.09841},
  archivePrefix={arXiv},
  primaryClass={cs.CV}
}
@misc{
  title={BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension}, 
  author={Mike Lewis and Yinhan Liu and Naman Goyal and Marjan Ghazvininejad and Abdelrahman Mohamed and Omer Levy and Ves Stoyanov and Luke Zettlemoyer},
  year={2019},
  eprint={1910.13461},
  archivePrefix={arXiv},
  primaryClass={cs.CL}
}
@misc{
  title={Scalable Second Order Optimization for Deep Learning},
  author={Rohan Anil and Vineet Gupta and Tomer Koren and Kevin Regan and Yoram Singer},
  year={2021},
  eprint={2002.09018},
  archivePrefix={arXiv},
  primaryClass={cs.LG}
}
@misc{
  title={GLU Variants Improve Transformer},
  author={Noam Shazeer},
  year={2020},
  url={https://arxiv.org/abs/2002.05202}    
}
 @misc{
  title={DeepNet: Scaling transformers to 1,000 layers},
  author={Wang, Hongyu and Ma, Shuming and Dong, Li and Huang, Shaohan and Zhang, Dongdong and Wei, Furu},
  year={2022},
  eprint={2203.00555}
  archivePrefix={arXiv},
  primaryClass={cs.LG}
} 
@misc{
  title={NormFormer: Improved Transformer Pretraining with Extra Normalization},
  author={Sam Shleifer and Jason Weston and Myle Ott},
  year={2021},
  eprint={2110.09456},
  archivePrefix={arXiv},
  primaryClass={cs.CL}
}
@inproceedings{
  title={Swin Transformer V2: Scaling Up Capacity and Resolution}, 
  author={Ze Liu and Han Hu and Yutong Lin and Zhuliang Yao and Zhenda Xie and Yixuan Wei and Jia Ning and Yue Cao and Zheng Zhang and Li Dong and Furu Wei and Baining Guo},
  booktitle={International Conference on Computer Vision and Pattern Recognition (CVPR)},
  year={2022}
}
@misc{
  title = {CogView: Mastering Text-to-Image Generation via Transformers},
  author = {Ming Ding and Zhuoyi Yang and Wenyi Hong and Wendi Zheng and Chang Zhou and Da Yin and Junyang Lin and Xu Zou and Zhou Shao and Hongxia Yang and Jie Tang},
  year = {2021},
  eprint = {2105.13290},
  archivePrefix = {arXiv},
  primaryClass = {cs.CV}
}
@misc{
  title = {Root Mean Square Layer Normalization},
  author = {Biao Zhang and Rico Sennrich},
  year = {2019},
  eprint = {1910.07467},
  archivePrefix = {arXiv},
  primaryClass = {cs.LG}
}
@misc{
  title = {Sinkformers: Transformers with Doubly Stochastic Attention},
  url = {https://arxiv.org/abs/2110.11773},
  author = {Sander, Michael E. and Ablin, Pierre and Blondel, Mathieu and Peyré, Gabriel},
  publisher = {arXiv},
  year = {2021},
}
@misc{
  title = {Smooth activations and reproducibility in deep networks},
  url = {https://arxiv.org/abs/2010.09931},
  author = {Shamir, Gil I. and Lin, Dong and Coviello, Lorenzo},
  publisher = {arXiv},
  year = {2020},
}