オープン事前トレーニング済みトランスフォーマーを操作するためのコードベース。
OPT 125M--66Bモデルは、ハギングフェイストランスフォーマーで利用可能になりました。あなたはハギングフェイスハブの組織の下でそれらにアクセスすることができます
OPT 125M--175Bモデルは、アルパプロジェクトでサポートされるようになりました。 40GB A100、V100、T4、M60などの旧世代のGPUでより柔軟な並列処理でOPT-175Bを提供できます。
OPTモデルはColossal-AIでサポートされるようになり、ユーザーはOPTモデルのトレーニングと推論を効率的かつ迅速に展開し、大規模なAIモデルの予算を削減し、学習と展開の人件費を縮小できます。
開始するには、こちらのセットアップ手順に従ってください。
プロジェクトセクションでリリースされたコードベースまたはモデルに関する質問、バグレポート、または機能リクエストがある場合は、Githubの問題ページに投稿することを躊躇しないでください。
私たちの行動規範に従うことを忘れないでください。
コミュニティからのPRを歓迎します!
metaseqへの貢献に関する情報は、貢献ドキュメントにあります。
Metaseqは現在、コード所有者によって維持されています:スーザン・チャン、スティーブン・ローラー、ナマン・ゴヤル、プニット・シン・コウラ、モヤ・チェン、カート・シャスター、ルアン・シルバ、デビッド・エシオブ、デビッド・グリーンバーグ、イゴール・モリボグ、ピーター・アルバート。
以前のメンテナには、Anjali Sridhar、Christopher Dewanが含まれます。
metaseqの大部分はMITライセンスの下でライセンスされていますが、プロジェクトの一部は別のライセンス条項の下で利用可能です。