Elastic Algorithm Service (EAS) は、共有ゲートウェイと専用ゲートウェイの両方を提供しており、インターネットおよび内部ネットワーク経由でのサービス呼び出しをサポートしています。呼び出しプロセスは、どちらもほぼ同じです。要件に最も適したゲートウェイタイプとエンドポイントを選択できます。
ゲートウェイの選択
EAS は、共有ゲートウェイと専用ゲートウェイの 2 種類のゲートウェイを提供しています。主な違いは以下のとおりです:
比較 | 共有ゲートウェイ | 専用ゲートウェイ |
インターネット呼び出し | デフォルトでサポートされています。 | サポートされています。最初に有効にする必要があります。 |
内部ネットワーク呼び出し | デフォルトでサポートされています。 | サポートされています。最初に有効にする必要があります。 |
コスト | 無料です。 | 追加料金が発生します。 |
ユースケース | 共有帯域幅で、カスタムアクセスポシーを必要としない低トラフィックのサービスに適しています。テストシナリオでの使用を推奨します。 | 専用帯域幅で、より高いセキュリティ、安定性、パフォーマンスを要求する高トラフィックのサービスに最適です。本番環境での使用を推奨します。 |
設定 | デフォルト設定。すぐに使用できます。 | 最初にゲートウェイを作成し、サービスのデプロイ時にそれを選択します。詳細については、「専用ゲートウェイの使用」をご参照ください。 |
エンドポイントの選択
インターネットエンドポイント: インターネットにアクセスできる任意の環境で使用します。リクエストは EAS 共有ゲートウェイを介してサービスに転送されます。
VPC エンドポイント: クライアントアプリケーションと EAS サービスが同じリージョンにデプロイされている場合に使用します。同じリージョンにある 2 つの VPC 間に接続を確立できます。
VPC 経由でのサービス呼び出しは、パブリックネットワークの遅延がなくなるため、インターネット経由よりも高速です。また、VPC 内のトラフィックは通常無料であるため、よりコスト効率が高くなります。
サービスの呼び出し方法
サービスを呼び出すには、まずそのエンドポイントとトークンが必要です。次に、デプロイされたモデルの仕様に基づいてリクエストを作成します。
1. エンドポイントとトークンの取得
サービスをデプロイすると、システムは必要なエンドポイントとトークンを自動的に生成します。
コンソールで提供されるエンドポイントはベースアドレスです。完全なリクエスト URL を構築するには、このベースアドレスに正しいリクエストパスを追加する必要があります。パスが正しくないことが、404 Not Found エラーの最も一般的な原因です。
[推論サービス] タブで、ターゲットサービスの名前をクリックして [概要] ページに移動します。[基本情報] セクションで、[呼び出し情報を表示] をクリックします。
[呼び出し情報] パネルで、エンドポイントとトークンを取得します。要件に基づいて インターネットまたは VPC エンドポイントを選択 します。以下の例では、これらの値のプレースホルダーとして
<EAS_ENDPOINT>と<EAS_TOKEN>を使用します。
2. リクエストの作成と送信
インターネットエンドポイントと VPC エンドポイントの両方で、リクエストの作成方法は同じですが、URL のみ異なります。標準的な呼び出しリクエストには、通常 4 つのコアコンポーネントが含まれます:
メソッド: 最も一般的なメソッドは POST と GET です。
URL: ベースの
<EAS_ENDPOINT>に特定のリクエストパスを追加したもの。リクエストヘッダー: 少なくとも、
Authorization: <EAS_TOKEN>などの認証トークンを含める必要があります。リクエストボディ: デプロイされたモデルの API が、JSON などのフォーマットを決定します。
重要ゲートウェイを介してサービスを呼び出す場合、リクエストボディは 1 MB を超えることはできません。
シナリオ
シナリオ 1: モデルギャラリーからデプロイされたモデルを呼び出す
モデルギャラリーの [モデル紹介] ページを直接参照してください。ここには、cURL または Python での最も正確な API 呼び出しの例が提供されており、完全な URL パスとリクエストボディのフォーマットが含まれています。
cURL コマンド
cURL コマンドの基本的な構文は curl [options] [URL] です:
optionsはオプションのパラメーターです。一般的なオプションには、リクエストメソッドを指定する-X、リクエストヘッダー用の-H、リクエストボディ用の-dがあります。URLはアクセスしたい HTTP エンドポイントです。

Python コード
この Python コード例では、Qwen3-Reranker-8B モデルを使用しています。URL とリクエストボディが cURL の例とは異なることに注意してください。常に対応する [モデル紹介] ページを参照してください。

シナリオ 2: 大規模言語モデルを呼び出す
大規模言語モデル (LLM) サービスは通常、チャット補完エンドポイント (/v1/chat/completions) や補完エンドポイント (/v1/completions) など、OpenAI 互換の API エンドポイントを提供します。
たとえば、vLLM でデプロイされた DeepSeek-R1-Distill-Qwen-7B モデルサービスのチャット補完エンドポイントを呼び出すには、次のコンポーネントが必要です。詳細については、「LLM の呼び出し」をご参照ください。
メソッド: POST
URI: <EAS_ENDPOINT>/v1/chat/completions
リクエストヘッダー:
Authorization: <EAS_TOKEN>およびContent-Type: application/jsonリクエストボディ:
{ "model": "DeepSeek-R1-Distill-Qwen-7B", "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "hello!" } ] }
例: cURL と Python での呼び出し
<EAS_ENDPOINT> が http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test であると仮定します。
curl http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test/v1/chat/completions
-H "Content-Type: application/json" \
-H "Authorization: *********5ZTM1ZDczg5OT**********" \
-X POST \
-d '{
"model": "DeepSeek-R1-Distill-Qwen-7B",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "hello!"
}
]
}' import requests
# 実際の エンドポイントに置き換えます。
url = 'http://16********.cn-hangzhou.pai-eas.aliyuncs.com/api/predict/test/v1/chat/completions'
# ヘッダーの Authorization の値は実際のトークンです。
headers = {
"Content-Type": "application/json",
"Authorization": "*********5ZTM1ZDczg5OT**********",
}
# 特定のモデルで必要なデータ形式に基づいてサービスリクエストを作成します。
data = {
"model": "DeepSeek-R1-Distill-Qwen-7B",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "hello!"
}
]
}
# リクエストを送信します。
resp = requests.post(url, json=data, headers=headers)
print(resp)
print(resp.content)その他のシナリオ
ユニバーサルプロセッサ (TensorFlow、Caffe、PMML を含む) でデプロイされたサービスの場合: 「ユニバーサルプロセッサに基づくサービスリクエストの作成」をご参照ください。
自分でトレーニングしたモデル: 呼び出し方法は元のモデルと同じです。
その他のカスタムサービス: カスタムイメージまたはコードで定義したデータ入力フォーマットによって、リクエストフォーマットが決まります。
よくある質問
詳細については、「サービス呼び出しに関する FAQ」をご参照ください。