ColossalAI - 大規模な AI モデルをより安価に、より簡単に、よりスケーラブルに

(Making big AI models cheaper, easier, and more scalable)

Created at: 2021-10-29 00:19:44
Language: Python
License: Apache-2.0

巨大なAI

ロゴ

巨大なAI:大規模なAIモデルをより安く、より簡単に、よりスケーラブルにする

論文 | ドキュメンテーション | サンプル | フォーラム | ブログ

建てる ドキュメンテーション コードファクター ハギングフェイスバッジ スラックバッジ 微信バッジ

|日本語 |中文 |

最新ニュース

目次

なぜ巨大なAIなのか

ジェームズ・デメル教授(カリフォルニア大学バークレー校):巨大なAIは、AIモデルのトレーニングを効率的、簡単、スケーラブルにします。

(一番上に戻る)

顔立ち

Colossal-AIは、並列コンポーネントのコレクションを提供します。私たちはあなたがあなたを書くのをサポートすることを目指しています 分散ディープラーニングモデルは、ラップトップでモデルを作成する方法と同じです。キックスタートするためのユーザーフレンドリーなツールを提供します 数行で分散されたトレーニングと推論。

(一番上に戻る)

パラレルトレーニングのデモ

GPT-3

  • GPU リソースを 50% 、アクセラレーションを 10.7% 削減

GPT-2

  • GPUメモリ消費量を11倍削減し、テンソル並列処理による超線形スケーリング効率

  • 同じハードウェアで24倍のモデルサイズ
  • 3倍以上の加速

バート

  • トレーニングが 2 倍速く、シーケンスの長さが 50% 長くなる

手のひら

選ぶ

詳細については、ドキュメントをご覧ください。

ViT

  • バッチサイズが 14 倍大きく、テンソル並列処理のトレーニングが 5 倍高速 = 64

レコメンデーションシステムモデル

  • キャッシュ埋め込みでは、ソフトウェア キャッシュを利用して、より小さな GPU メモリ バジェットでより大きな埋め込みテーブルをトレーニングします。

(一番上に戻る)

シングルGPUトレーニングのデモ

GPT-2

  • 同じハードウェアで20倍のモデルサイズ

  • 同じハードウェアで120倍大きいモデルサイズ(RTX 3080)

手のひら

  • 同じハードウェアで34倍のモデルサイズ

(一番上に戻る)

推論 (エネルゴン AI) デモ

  • Energon-AI:同じハードウェアで50%の推論アクセラレーション

  • OPTサービング:175,<>億パラメータのOPTオンラインサービスをお試しください

  • BLOOM:176,10億パラメータのBLOOMのハードウェア導入コストを<>倍以上削減します。

(一番上に戻る)

現実世界の巨大なAI

チャットGPT

低コストのChatGPT同等の実装プロセス。[コード] [ブログ]

  • シングルサーバートレーニングで最大7.73倍、シングルGPU推論で最大1.42倍高速

  • 10つのGPUでモデル容量が最大3.<>倍に増加
  • ミニデモトレーニングプロセスに必要なGPUメモリはわずか1.62GB(コンシューマーグレードのGPU)

  • 微調整モデルの容量を 3 つの GPU で最大 7.<> 倍に増加
  • 十分に高い走行速度を保つ

(一番上に戻る)

アイティッカー

安定拡散v1や安定拡散v2などのAIGC(AI生成コンテンツ)モデルの高速化。

  • トレーニング:安定した拡散メモリ消費量を最大5.6倍、ハードウェアコストを最大46倍削減します(A100からRTX3060まで)。

  • DreamBoothの微調整:目的の被写体の3〜5枚の画像を使用してモデルをパーソナライズします。

  • 推論: 推論 GPU メモリ消費量を 2.5 倍削減します。

(一番上に戻る)

生物 医学

アルファフォールドタンパク質構造の加速

  • FastFold:GPUクラスターでのトレーニングと推論の高速化、より高速なデータ処理、10000を超える残基を含む推論シーケンス。

  • xTrimoMultimer:タンパク質モノマーおよび多量体の構造予測を11倍高速化します。

(一番上に戻る)

取り付け

Install from PyPI

You can easily install Colossal-AI with the following command. By defualt, we do not build PyTorch extensions during installation.

pip install colossalai

However, if you want to build the PyTorch extensions during installation, you can set .

CUDA_EXT=1

CUDA_EXT=1 pip install colossalai

Otherwise, CUDA kernels will be built during runtime when you actually need it.

We also keep release the nightly version to PyPI on a weekly basis. This allows you to access the unreleased features and bug fixes in the main branch. Installation can be made via

pip install colossalai-nightly

Download From Source

The version of Colossal-AI will be in line with the main branch of the repository. Feel free to raise an issue if you encounter any problem. :)

git clone https://github.com/hpcaitech/ColossalAI.git
cd ColossalAI

# install colossalai
pip install .

By default, we do not compile CUDA/C++ kernels. ColossalAI will build them during runtime. If you want to install and enable CUDA kernel fusion (compulsory installation when using fused optimizer):

CUDA_EXT=1 pip install .

(back to top)

Use Docker

Pull from DockerHub

You can directly pull the docker image from our DockerHub page. The image is automatically uploaded upon release.

Build On Your Own

Run the following command to build a docker image from Dockerfile provided.

Building Colossal-AI from scratch requires GPU support, you need to use Nvidia Docker Runtime as the default when doing . More details can be found here. We recommend you install Colossal-AI from our project page directly.

docker build

cd ColossalAI
docker build -t colossalai ./docker

Run the following command to start the docker container in interactive mode.

docker run -ti --gpus all --rm --ipc=host colossalai bash

(back to top)

Community

フォーラムSlackWeChatを使用して、提案、フィードバック、質問をエンジニアリングチームと共有します。

貢献

このプロジェクトへの貢献を希望する場合は、貢献のガイドラインに従ってください。

私たちの素晴らしい貢献者のすべてに感謝します!

寄稿者のアバターの順序はランダムにシャッフルされます。

(一番上に戻る)

CI/CD

GitHub Actionsの力を活用して、開発、リリース、デプロイのワークフローを自動化します。自動化されたワークフローの操作方法については、このドキュメントを確認してください。

私たちを引用する

@article{bian2021colossal,
  title={Colossal-AI: A Unified Deep Learning System For Large-Scale Parallel Training},
  author={Bian, Zhengda and Liu, Hongxin and Wang, Boxiang and Huang, Haichen and Li, Yongbin and Wang, Chuanrui and Cui, Fan and You, Yang},
  journal={arXiv preprint arXiv:2110.14883},
  year={2021}
}

Colossal-AIは、トップカンファレンスSC、AAAIPPoPP、CVPRなどによって公式チュートリアルとして受け入れられています。

(一番上に戻る)