Alibaba Cloud Platform for AI (PAI) は、さまざまなフレームワークと CUDA バージョンを持つ一連の公式イメージを提供しています。DLC、EAS、または DSW を使用する際に、適切なイメージを選択することで、AI 開発者環境を迅速に構築できます。このトピックでは、PAI 公式イメージの特徴を説明し、コアイメージのリストを提供します。
公式イメージの理解
PAI 公式イメージは、特定の命名規則に従っており、イメージ名からその主要な詳細を特定するのに役立ちます。イメージ名には通常、以下のフィールドが含まれます。カスタムイメージを作成する際には、同様の命名規則に従うことを推奨します。
サンプルイメージ名 | 名前の構成要素 | 各プロダクトのイメージタイプ |
|
| 公式イメージは、さまざまな PAI プロダクトに合わせて調整されています:
|
|
|
公式イメージの特徴
Alibaba Cloud PAI は、さまざまな機械学習フレームワークに基づいた公式イメージを提供しています。PAI コンソールの [AI アセット - イメージ] ページで、公式イメージの完全なリストを表示できます。以下のセクションでは、TensorFlow や PyTorch などの主流フレームワークの公式イメージについて説明します。
Python
概要
Python は、シンプルで使いやすく、強力な高水準プログラミング言語です。機械学習では、主にデータ処理、モデル開発、トレーニングに使用されます。NumPy、PyTorch、TensorFlow などの豊富なライブラリエコシステムを持ち、高い開発者効率を提供します。Alibaba Cloud PAI は 2 種類の Python イメージを提供しています。
CPU イメージ:公式 Ubuntu イメージ をベースに構築されています。これらは CPU コンピューティング用のベースイメージです。
GPU イメージ:公式 CUDA イメージ をベースに構築されています。これらは GPU コンピューティング用のベースイメージです。
主な特徴
Ubuntu 22.04 と Ubuntu 24.04 をサポートします。
Alibaba Cloud の高性能 RDMA ネットワークをサポートします。
Python バージョン 3.10 から 3.14 までをサポートします。
CUDA バージョン 12.4 から 13.0 までをサポートします。
curl、git、wget、rclone、ping などの一般的な開発者ツールが含まれています。
pip と apt には Alibaba Cloud ミラーソースを使用します。
PyTorch
概要
Alibaba Cloud PAI は 2 種類の PyTorch イメージを提供しています。
Alibaba Cloud PAI が提供する Python イメージをベースに構築されたイメージです。これらのイメージには PyTorch、TorchVision、TorchAudio パッケージが含まれており、Python イメージのすべての特徴を継承し、2.4.0 以降のすべての公式 PyTorch バージョンをカバーしています。
NVIDIA GPU Cloud (NGC) の PyTorch イメージをベースに構築されたイメージです。これらのイメージには一般的な開発者ツールが含まれており、pip と apt にはAlibaba Cloud ミラーソースを使用します。
タグの説明
-accl:
ACCL: Alibaba Cloud Collective Communication Library がプリインストール済みのイメージです。ACCL は、NVIDIA Collective Communication Library (NCCL) よりも高い通信パフォーマンスを提供します。
ACCL ベースのイメージを使用してモデルを開発およびトレーニングする場合、プリインストール済みの Python 環境を使用する必要があります。Python 仮想環境を使用するには、その環境で ACCL ライブラリを設定して ACCL 機能を有効化する必要があります。詳細については、インストールメソッドをご参照ください。
-ngc:
NGC PyTorch イメージをベースに構築されたイメージです。タグには NGC イメージのバージョン情報が含まれています。たとえば、
2.10.0-gpu-py312-cu130-ubuntu24.04-ngc25.11は、NGC 25.11 バージョンの PyTorch イメージをベースに構築されています。NGC PyTorch イメージの特徴に関する詳細については、NVIDIA 公式ドキュメントをご参照ください。
TensorFlow
フレームワークバージョン | CUDA バージョン (GPU インスタンスのみ) | オペレーティングシステム |
|
|
|
TensorFlow Serving
フレームワークバージョン | CUDA バージョン (GPU インスタンスのみ) | オペレーティングシステム |
|
|
|
DeepRec
フレームワークバージョン | CUDA バージョン (GPU インスタンスのみ) | オペレーティングシステム |
| CUDA 11.4 | Ubuntu 18.04 |
XGBoost
フレームワークバージョン | CUDA バージョン (GPU インスタンスのみ) | オペレーティングシステム |
XGBoost 1.6.0 | 該当なし。CPU インスタンスのみをサポートします。 | Ubuntu 18.04 |
TritonServer
フレームワークバージョン | CUDA バージョン (GPU インスタンスのみ) | オペレーティングシステム |
|
| Ubuntu 20.04 |
コアイメージリスト
霊駿リソース (Serverless 版) のイメージ
イメージ名 | フレームワーク | インスタンスタイプ | CUDA | オペレーティングシステム | リージョン | プログラミング言語とバージョン |
deepspeed-training:23.06-gpu-py310-cu121-ubuntu22.04 |
| GPU | 12.1 | ubuntu 22.04 | 中国 (ウランチャブ) | Python 3.10 |
megatron-training:23.06-gpu-py310-cu121-ubuntu22.04 |
| GPU | 12.1 | ubuntu 22.04 | 中国 (ウランチャブ) | Python 3.10 |
nemo-training:23.06-gpu-py310-cu121-ubuntu22.04 |
| GPU | 12.1 | ubuntu 22.04 | 中国 (ウランチャブ) | Python 3.10 |
AIGC 関連イメージ
イメージ名 | フレームワーク | インスタンスタイプ | CUDA | オペレーティングシステム | サポート対象リージョン | プログラミング言語とバージョン |
stable-diffusion-webui:4.2 | Stable Diffusion WebUI 4.2 | GPU | 12.4 | ubuntu 22.04 |
| Python 3.10 |
stable-diffusion-webui:4.1 | Stable Diffusion WebUI 4.1 | GPU | 12.4 | ubuntu 22.04 | Python 3.10 |
EAS の注目イメージ
次の表に、EAS で使用できる PAI 公式イメージの一部をリストします。イメージの完全なリストを表示するには、PAI コンソールの [AI アセット - イメージ] ページに移動してください。次の表のレジストリアドレスは、中国 (杭州) リージョンを例として使用しています。
イメージ名 | フレームワーク | イメージの説明 | レジストリアドレス |
chat-llm-webui:3.0-blade |
| Blade バックエンドを使用して大規模言語モデル (LLM) の推論サービスを提供する EAS 推論イメージです。このサービスは、WebUI と API の両方のアクセスをサポートします。 |
|
chatbot-langchain:1.0 | ChatbotLangChain 1.0 | EAS 推論イメージを使用して、LangChain でナレッジベースの Q&A システムを構築します。 |
|
comfyui:2.2-api | ComfyUI 2.2 | ComfyUI に基づく EAS イメージで、テキストから画像生成や画像から画像生成などの非同期 API 呼び出しに使用されます。 |
|
comfyui:2.2 | ComfyUI 2.2 | ComfyUI に基づく EAS イメージで、テキストから画像生成や画像から画像生成などのシナリオに使用されます。 |
|
comfyui:2.2-cluster | ComfyUI 2.2 | ComfyUI に基づく EAS イメージで、テキストから画像生成や画像から画像生成などのシナリオに使用されます。 |
|
kohya_ss:2.2 | Kohya 2.2 | Kohya に基づく EAS イメージで、Stable Diffusion モデルのファインチューニングアプリケーションをデプロイするために使用されます。 |
|
modelscope-inference:1.9.1 | ModelScope 1.9.1 | ModelScope モデルをデプロイするために使用されます。 |
|
stable-diffusion-webui:4.2-cluster-webui | Stable Diffusion WebUI 4.2 | Stable Diffusion WebUI に基づく EAS イメージで、テキストから画像生成や画像から画像生成などのシナリオに使用されます。リソース隔離による複数ユーザーの同時アクセスをサポートします。 |
|
stable-diffusion-webui:4.2-api | Stable Diffusion WebUI 4.2 | Stable Diffusion WebUI に基づく EAS イメージで、テキストから画像生成や画像から画像生成などの非同期 API 呼び出しに使用されます。 |
|
stable-diffusion-webui:4.2-standard | Stable Diffusion WebUI 4.2 | Stable Diffusion WebUI に基づく EAS イメージで、テキストから画像生成や画像から画像生成などのシナリオに使用されます。 |
|
tensorflow-serving:2.14.1 | TensorFlow Serving 2.14.1 | オープンソースの TensorFlow Serving イメージに基づく EAS イメージです。TensorFlow モデルを推論サービスとしてデプロイするために使用され、CPU 環境にのみ適しています。 |
|
tensorflow-serving:2.14.1-gpu | TensorFlow Serving 2.14.1 | オープンソースの TensorFlow Serving イメージに基づく EAS イメージです。TensorFlow モデルを推論サービスとしてデプロイするために使用され、GPU 環境に適しています。 |
|
chat-llm-webui:3.0 |
| Hugging Face バックエンドを使用して LLM の推論サービスを提供する EAS 推論イメージです。このサービスは、WebUI と API の両方のアクセスをサポートします。 |
|
chat-llm-webui:3.0-vllm |
| VLLM バックエンドを使用して LLM の推論サービスを提供する EAS 推論イメージです。このサービスは、WebUI と API の両方のアクセスをサポートします。 |
|
huggingface-inference:1.0-transformers4.33 | Transformers 4.33 | Hugging Face モデルをデプロイするために使用されます。 |
|
tritonserver:23.11-py3 | TritonServer 23.11 | オープンソースの TritonServer イメージに基づく EAS イメージです。モデルを推論サービスとしてデプロイするために使用されます。 |
|