適切な conda 環境は、次のようにして作成およびアクティブ化できます。
DifFace
conda env create -f environment.yaml conda activate taming
python inference_difface.py --aligned --in_path [image folder/image path] --out_path [result folder] --gpu_id [gpu index]
python inference_difface.py --in_path [image folder/image path] --out_path [result folder] --gpu_id [gpu index]
python datapipe/prepare/face/big2small_face.py --face_dir [Face folder(1024x1024)] --save_dir [Saving folder] --pch_size 512
python datapipe/prepare/face/split_train_val.py --face_dir [Face folder(512x512)] --save_dir [Saving folder]
python datapipe/prepare/face/make_testing_data.py --files_txt datapipe/files_txt/ffhq512.txt --save_dir [Saving folder]
CUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --standalone --nproc_per_node=4 --nnodes=1 main_diffusion.py --cfg_path configs/training/diffsuion_ffhq512.yaml --save_dir [Logging Folder]
CUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --standalone --nproc_per_node=4 --nnodes=1 main_sr.py --cfg_path configs/training/swinir_ffhq512.yaml --save_dir [Logging Folder]
このプロジェクトは、NTU S-Labライセンス1.0の下でライセンスされています。再配布と使用は、このライセンスに従う必要があります。
このプロジェクトは、改良拡散モデルに基づいています。一部のコードは、BasicSR、YOLOv5-face、およびFaceXLibから取得されます。また、背景画像の強調をサポートするためにリアルESRGANを採用しています。彼らの素晴らしい作品をありがとう。
ご不明な点がございましたら、お気軽にお問い合わせください。
zsyzam@gmail.com