Platform for AI (PAI) は、複数の機械学習フレームワークおよびCompute Unified Device Architecture (CUDA) バージョン用に事前に構築されたイメージを提供します。 画像を使用して、PAIのディープラーニングコンテナ (DLC) 、Elastic Algorithm Service (EAS) 、およびData Science Workshop (DSW) モジュールでAI開発環境を簡単に作成できます。 このトピックでは、主流フレームワークの公式PAIイメージと一般的なシナリオについて説明します。
名前付けルール
公式のPAIイメージの名前は、イメージに関する重要な情報をカプセル化するために固定されたフォーマットに従います。 次の表に、公式PAIイメージの命名規則を示します。 カスタムイメージにも同じ命名規則を使用することを推奨します。
サンプル名 | 名前の内訳 | モジュール識別子 |
|
| 公式PAIイメージの名前に次の識別子を使用して、イメージの該当するモジュールを示すことができます。
|
|
|
Images for mainstream framework
PAIは、複数の機械学習フレームワークに事前に作成されたイメージを提供します。 このセクションでは、メインストリームフレームワークの公式PAIイメージについて説明します。 公式PAIイメージの完全なリストは、PAIコンソールのAI Computing Asset Management> イメージページで確認できます。
TensorFlow
フレームワークのバージョン | CUDAバージョン (GPUのみ) | オペレーティングシステム |
|
|
|
TensorFlowサービング
フレームワークのバージョン | CUDAバージョン (GPUのみ) | オペレーティングシステム |
|
|
|
Pytorch
フレームワークのバージョン | CUDAバージョン (GPUのみ) | オペレーティングシステム |
|
|
|
DeepRec
フレームワークのバージョン | CUDAバージョン (GPUのみ) | オペレーティングシステム |
| CUDA 114 | Ubuntu 18.04 |
XGBoost
フレームワークのバージョン | CUDAバージョン (GPUのみ) | オペレーティングシステム |
XGBoost1.6.0 | N/A (CPUのみをサポート) | Ubuntu 18.04 |
Triton推論サーバー
フレームワークのバージョン | CUDAバージョン (GPUのみ) | オペレーティングシステム |
|
| Ubuntu 20.04 |
イメージの一般的なシナリオ
Lingjunインテリジェントコンピューティングサービス (サーバーレス版)
イメージ名 | フレームワーク | インスタンスタイプ | CUDAバージョン | オペレーティングシステム | サポート対象リージョン | プログラミング言语とバージョン |
deepspeed-training:23.06-gpu-py310-cu121-ubuntu22.04 |
| GPU | 121 | ubuntu22.04 | 中国 (ウランチャブ) | Python3.10 |
メガトロン-トレーニング: 23.06-gpu-py310-cu121-ubuntu22.04 |
| GPU | 121 | ubuntu22.04 | 中国 (ウランチャブ) | Python3.10 |
nemo-training:23.06-gpu-py310-cu121-ubuntu22.04 |
| GPU | 121 | ubuntu22.04 | 中国 (ウランチャブ) | Python3.10 |
人工知能生成コンテンツ (AIGC)
イメージ名 | フレームワーク | インスタンスタイプ | CUDAバージョン | オペレーティングシステム | サポート対象リージョン | プログラミング言语とバージョン |
stable-diffusion-webui:3.0 | StableDiffusionWebUI3.0 | GPU | 117 | ubuntu22.04 |
| Python3.10 |
stable-diffusion-webui:2.2 | StableDiffusionWebUI2.2 | GPU | 117 | ubuntu22.04 | Python3.10 | |
stable-diffusion-webui:1.1 | StableDiffusionWebUI1.1 | GPU | 117 | ubuntu22.04 | Python3.10 | |
stable-diffusion-webui-env:pytorch1.13-gpu-py310-cu117-ubuntu22.04 | SD-WebUI-ENV | GPU | 117 | ubuntu22.04 | Python3.10 |
EASの配置
次の表に、EASで使用できる公式のPAIイメージを示します。 すべての画像のリストを表示するには、PAIコンソールのAIコンピューティングアセット管理> 画像ページに移動します。 次の表のイメージアドレスでは、例として中国 (杭州) リージョンを使用しています。
イメージ名 | フレームワーク | 画像の説明 | 画像アドレス |
chat-llm-webui:3.0ブレード |
| Bladeを使用して、ラージランゲージモデル (LLM) に基づく推論サービスを実装します。 サービスには、webアプリケーションまたはAPIエンドポイントを使用してアクセスできます。 |
|
chatbot-langchain:1.0 | ChatbotLangChain 1.0 | LangChainを使用して外部ナレッジベースを統合するチャットボットサービスに適しています。 |
|
comfyui:0.2-api | ComfyUI 0.2 | ComfyUIが含まれており、テキストからイメージへ、およびイメージからイメージへのシナリオで使用される非同期APIサービスに適しています。 |
|
comfyui:0.2 | ComfyUI 0.2 | ComfyUIが含まれており、テキストから画像へ、および画像から画像へのシナリオに適しています。 |
|
comfyui:0.2クラスター | ComfyUI 0.2 | ComfyUIが含まれており、テキストから画像へ、および画像から画像へのシナリオに適しています。 |
|
kohya_ss:2.2 | Kohya 2.2 | Kohyaを使用して、微調整された安定拡散モデルに基づいてアプリケーションを展開します。 |
|
modelscope-inference:1.9.1 | ModelScope 1.9.1 | Modelscopeモデルのために適した。 |
|
stable-diffusion-webui:4.2-cluster-webui | StableDiffusionWebUI 4.2 | 安定した拡散WebUIが含まれており、テキストから画像へ、および画像から画像へのシナリオに適しています。 このイメージを使用してデプロイされるサービスは、同時ユーザーアクセスとユーザー間のリソース分離をサポートします。 |
|
stable-diffusion-webui:4.2-api | StableDiffusionWebUI 4.2 | Stable Diffusion WebUIが含まれており、テキストからイメージへ、およびイメージからイメージへのシナリオで使用される非同期APIサービスに適しています。 |
|
stable-diffusion-webui:4.2標準 | StableDiffusionWebUI 4.2 | 安定した拡散WebUIが含まれており、テキストから画像へ、および画像から画像へのシナリオに適しています。 |
|
tensorflow-serving:2.14.1 | TensorflowServing 2.14.1 | TensorFlow Servingを含み、TensorFlowモデルに基づく推論サービスに適しています。 このイメージはCPUインスタンスのみをサポートします。 |
|
tensorflow-serving:2.14.1-gpu | TensorflowServing 2.14.1 | TensorFlow Servingを含み、TensorFlowモデルに基づく推論サービスに適しています。 このイメージはGPUインスタンスのみをサポートします。 |
|
chat-llm-webui:3.0 |
| HuggingFaceを使用してLLMに基づく推論サービスを実装します。これらのサービスには、webアプリケーションまたはAPIエンドポイントを使用してアクセスできます。 |
|
chat-llm-webui:3.0-vllm |
| vLLMを使用して、LLMに基づく推論サービスを実装します。これらのサービスには、webアプリケーションまたはAPIエンドポイントを使用してアクセスできます。 |
|
huggingface-inference:1.0-transformers4.33 | 変圧器4.33 | HuggingFaceモデルに適しています。 |
|
tritonserver:23.11-py3 | TritonServer 23.11 | TritonServerを含み、推論サービスに適しています。 |
|