×
Community Blog グラフィカルおよびコマンドラインインターフェースを使用したTongy Qianwenのデプロイ

グラフィカルおよびコマンドラインインターフェースを使用したTongy Qianwenのデプロイ

この記事では、Tongyi Qianwen-7B モデルと対話するための 2 つのアプローチについて説明します。1 つはグラフィカルユーザーインターフェース (GUI) を使用し、もう 1 つはコマンドラインインターフェース (CLI) を使用します。

執筆担当者:Jawad

Tongyi Qianwen-7B (Qwen-7B) は、Alibaba Cloud が開発した Tongyi Qianwen 大規模モデルシリーズの 70 億パラメータースケールモデルです。

Qwen-7B は Transformerに基づく大規模言語モデル (LLM) であり、非常に大規模な事前トレーニングデータでトレーニングされています。 事前トレーニングデータの型は多様であり、多数のオンラインテキスト、専門的な本、コードなどを含む広範囲の領域を網羅しています。

モデルの詳細については、以下をご参照ください。

https://www.modelscope.cn/models/qwen/Qwen-7B-Chat/files

この記事では、Tongyi Qianwen-7B モデルと対話するための 2 つのアプローチについて説明します。1 つは GUI (Graphical User Interface) を使用し、もう 1 つは CLI (Command Line Interface) を使用します。

方法 1:GUI を使用して Alibaba Cloud にモデルを実装する:

注:

  1. この記事の執筆時点では、PAI サービスの利用は一部のリージョンに限られていました。 今回は、シンガポールリージョンを使用しています。
  2. Alibaba Cloud アカウントで PAI サービスがアクティブ化されていることが前提条件です。
  3. PAI 内にワークスペースを作成する必要があります。 このガイドでは、ワークスペースは JawadML と呼ばれていますが、ワークスペース名は異なる場合があります。

手順:

1.  PAI プラットフォームでワークスペースを選択し、モデルのデプロイElastic Algorithm Service (EAS) を選択し、サービスのデプロイ をクリックします。

1

2.  ModelScope の事前トレーニング済みモデルを使用して、以下の設定でイメージと環境変数を選択します。

ModelScope は、Alibaba Cloud によって開発されたオープンソースの Model-as-a-Service (MaaS) プラットフォームで、グローバルな開発者や研究者向けの事前トレーニング済みの大規模モデルを含む数百の AI モデルが付属しています。

2

Alibaba Cloud PAI では、推論用の機械学習モデルを実行できるハードウェア用にさまざまなオプションが提供されています。 今回は、十分なメモリを有する GPU を使用できます。 以下の設定を選択し、デプロイ をクリックします。

3
4

これにより、選択したハードウェアに事前トレーニング済みの Qwen-7B モデルのデプロイが開始されます。 時間がかかる場合があるため、デプロイプロセス中にさまざまなイベントを確認することを推奨します。

3.  作成プロセスの確認

デプロイイベントを確認し、すべてが正常であることを確認するには、サービスID / 名前 (今回の場合は qwenmodel) をクリックし、デプロイイベント を選択します。

5

同様に、サービスログ を使用して、パッケージのインストール関連ログを表示できます。

6

モデルが正常にデプロイされると、サービスのステータスは 実行中 に変わります。

7

推論にモデルを使用するには、Webアプリの表示 をクリックします。 テキスト生成のテストに使用できるモデルの GUI インターフェースが開きます。

4.  テスト:Qwen-7B で python コードを生成する

8

GUI モードを使用する場合、モデルは入力テキスト全体を処理してからテキスト全体を生成することに注意してください。

5.  パフォーマンスを向上させたい場合のアップグレード (オプション)

ハードウェア設定は、必要に応じて変更することができます。 以下に示すように、サービスの更新 をクリックすると、設定ウィンドウが開きます。

9

下図に、推論エンジンのハードウェア設定を変更する方法を示します。 設定が変更されたら、デプロイ をクリックします。

10
11

設定の変更には多少時間がかかります。 完了すると、サービスステータスは アップグレード中 から 実行中 に変わります。

12

方法 2:CLI を使用して Alibaba Cloud にモデルを実装する:

スクロールテキスト応答を生成できる Qwen 7-B を CLI モードで実装できます。 PAI インタラクティブモデリング (DSW) または ECS インスタンスを使用して実装できます。 今回は、DSW ベースの実装について説明します。

1.  PAI で、[インタラクティブモデリング (DSW)] を選択し、インスタンスの作成 をクリックします。 設定ウィンドウが開きます。

13

以下のように適切な GPU 仕様とイメージタイプを選択して設定します。

14
15

次へ をクリックして最終ページに移動します。 インスタンスの作成を選択すると、DSW インスタンスが起動されます。

16

インスタンスの初期ステータスは、リソースの準備中 です。

2.  インスタンスのステータスが “実行中” になったことを確認んし、右側にある 有効化 オプションをクリックします。 Jupiter Lab が起動されます。

17

3.  ただし、ここでは Jupyter Lab は使用しません。 その代わりに、ターミナルで Github からモデルをダウンロードしてデプロイします。

18

最善の方法は、最初に python 環境を作成しておくことです。 仮想環境が作成されたらアクティブ化し、端末で以下のコマンドを使用します。

a) git clone https://github.com/QwenLM/Qwen
b) cd Qwen/
c) pip install -r requirements.txt
d) python3 cli_demo.py

19

インストールの完了にはしばらくかかります。コーヒーなどを用意して待ちましょう。

20

完了すると、コマンドラインプロンプトが表示されます。

21

4.  モデルのテスト:

モデルをテストするには、CLI インターフェースでテキストを直接入力します。 私の場合は、プロンプトを使用しました:how to create python environment for installation

以下に示すように、仮想環境を作成およびアクティブ化するための python コードが生成されます。

22

さまざまな質問を試して、Qwen をお楽しみください。 😀


この記事の原典は、英語で執筆されました。 原典はこちらから表示できます

0 0 0
Share on

Regional Content Hub

84 posts | 3 followers

You may also like

Comments

Regional Content Hub

84 posts | 3 followers

Related Products