(一番上に戻る)
Colossal-AIは、並列コンポーネントのコレクションを提供します。私たちはあなたがあなたを書くのをサポートすることを目指しています 分散ディープラーニングモデルは、ラップトップでモデルを作成する方法と同じです。キックスタートするためのユーザーフレンドリーなツールを提供します 数行で分散されたトレーニングと推論。
並列処理戦略
異種メモリ管理
フレンドリーな使用法
推論
(一番上に戻る)
(一番上に戻る)
(一番上に戻る)
Energon-AI:同じハードウェアで50%の推論アクセラレーション
OPTサービング:175,<>億パラメータのOPTオンラインサービスをお試しください
(一番上に戻る)
低コストのChatGPT同等の実装プロセス。[コード] [ブログ]
(一番上に戻る)
安定拡散v1や安定拡散v2などのAIGC(AI生成コンテンツ)モデルの高速化。
(一番上に戻る)
(一番上に戻る)
You can easily install Colossal-AI with the following command. By defualt, we do not build PyTorch extensions during installation.
pip install colossalai
However, if you want to build the PyTorch extensions during installation, you can set .
CUDA_EXT=1
CUDA_EXT=1 pip install colossalai
Otherwise, CUDA kernels will be built during runtime when you actually need it.
We also keep release the nightly version to PyPI on a weekly basis. This allows you to access the unreleased features and bug fixes in the main branch. Installation can be made via
pip install colossalai-nightly
The version of Colossal-AI will be in line with the main branch of the repository. Feel free to raise an issue if you encounter any problem. :)
git clone https://github.com/hpcaitech/ColossalAI.git
cd ColossalAI
# install colossalai
pip install .
By default, we do not compile CUDA/C++ kernels. ColossalAI will build them during runtime. If you want to install and enable CUDA kernel fusion (compulsory installation when using fused optimizer):
CUDA_EXT=1 pip install .
You can directly pull the docker image from our DockerHub page. The image is automatically uploaded upon release.
Run the following command to build a docker image from Dockerfile provided.
Building Colossal-AI from scratch requires GPU support, you need to use Nvidia Docker Runtime as the default when doing . More details can be found here. We recommend you install Colossal-AI from our project page directly.
docker build
cd ColossalAI
docker build -t colossalai ./docker
Run the following command to start the docker container in interactive mode.
docker run -ti --gpus all --rm --ipc=host colossalai bash
フォーラム、Slack、 WeChatを使用して、提案、フィードバック、質問をエンジニアリングチームと共有します。
このプロジェクトへの貢献を希望する場合は、貢献のガイドラインに従ってください。
私たちの素晴らしい貢献者のすべてに感謝します!
寄稿者のアバターの順序はランダムにシャッフルされます。
(一番上に戻る)
GitHub Actionsの力を活用して、開発、リリース、デプロイのワークフローを自動化します。自動化されたワークフローの操作方法については、このドキュメントを確認してください。
@article{bian2021colossal, title={Colossal-AI: A Unified Deep Learning System For Large-Scale Parallel Training}, author={Bian, Zhengda and Liu, Hongxin and Wang, Boxiang and Huang, Haichen and Li, Yongbin and Wang, Chuanrui and Cui, Fan and You, Yang}, journal={arXiv preprint arXiv:2110.14883}, year={2021} }
Colossal-AIは、トップカンファレンスSC、AAAI、PPoPP、CVPRなどによって公式チュートリアルとして受け入れられています。
(一番上に戻る)