「ジェネレーティブAI(GenAI)」と「大規模言語モデル(LLM)」の世界への突入に備えていますか?Alibaba Cloud Platform for AI (PAI) は、AIの高度な機能とLLMの画期的な特徴を組み合わせた最先端のプラットフォームです。これにより、GenAIの領域を革新します。
PAIにはさまざまな魅力的な機能があります。主なハイライトをご紹介いたします:
一つの記事ですべての機能を網羅するのは困難ですので、PAI上のLLMに関連する一連の記事を公開する予定です。まずはLangchainとの統合から始めましょう。
Platform for AI - Elastic Algorithm Service (PAI-EAS) は、モデルのオンライン推論のためのプラットフォームであり、自動スケーリング、ブルーグリーン展開、リソースグループ管理などの機能を提供します。PAI-EASはリアルタイムおよびほぼリアルタイムのAI推論シナリオをサポートし、柔軟なインフラストラクチャ、効率的なコンテナスケジューリング、簡素化されたモデルの展開を提供します。また、リアルタイムおよびほぼリアルタイムの同期推論を可能にし、さまざまなAIアプリケーションに対して高スループットかつ低遅延を保証します。
LangChain は、言語モデルによってパワードされたアプリケーションを開発するための強力なフレームワークです。これにより、言語モデルをプロンプトの指示、フューショットの例、または応答の基盤とするコンテキストのさまざまなソースに接続できるコンテキスト感知型アプリケーションが可能になります。LangChainを使用することで、提供されたコンテキストに基づいて論理的な推論と意思決定を行うことができます。
LangChainフレームワークには、いくつかのコンポーネントがあります。LangChain Librariesは、言語モデルと連携するためのPythonとJavaScriptのライブラリとインターフェースを提供します。これらのライブラリには、コンポーネントをチェーンとエージェントに組み合わせるためのランタイムや、さまざまなタスクに対するチェーンとエージェントのプリビルド実装も含まれています。LangChainテンプレートは、幅広いアプリケーションに対する簡単に展開可能なリファレンスアーキテクチャを提供します。
LangChainを使用することで、開発者はアプリケーションのライフサイクル全体を簡素化することができます。LangChainのライブラリとテンプレートを使用してアプリケーションを開発し、LangSmithで検査とモニタリングを行い、LangServeを使用してチェーンをAPIとして展開することができます。
LangChainは、モデルI/O、リトリーバル、エージェントなどのモジュールに対して標準的で拡張可能なインターフェースと連携を提供します。使用事例、手順、ベストプラクティス、APIリファレンス、開発者ガイドなどのリソースが豊富に用意されています。LangChainコミュニティは活発で支援的であり、言語モデルパワードアプリケーションの将来についての質問、フィードバックの共有、協力の場を提供しています。
このチュートリアルでは、PAI EASのセットアップ方法、チャットモデルの展開、および異なる設定での実行手順を説明します。
まず、PAI-EASでLLMのセットアップを行います。こちらのチュートリアルやドキュメントを参照して、EASのセットアップ方法やPAI-EASのサービスURLとトークンの取得方法について確認してください。これらの資格情報は、EASサービスへの接続に必要です。
もしもQwenモデルを試してみたい場合は、4番のフィールドでCommand to Runを自由に変更してください。Qwenはオープンソースであり、Qwen、基本言語モデルであるQwen-7BとQwen-14B、チャットモデルであるQwen-7B-ChatとQwen-14B-Chatなど、さまざまなモデルが提供されています。
python api/api_server.py --port=8000 --model-path=Qwen/Qwen-7B-Chat
PAI-EASからURLとトークンの環境変数の設定が必要です。これらの変数をターミナルでエクスポートするか、コード内でプログラム的に設定することができます。これにより、アプリケーションがEASサービスに安全にアクセスできるようになります。
ターミナルで変数をエクスポートする場合:
export EAS_SERVICE_URL=XXX
export EAS_SERVICE_TOKEN=XXX
PAI-EASからこれらの変数を取得するには、以下の手順に従ってコードに必要なホストURLとトークンを見つけることができます:
コード内で必要な依存関係をインポートします。これには、_langchain.chat_models__moduleの_PaiEasChatEndpoint_ classと_langchain.chat_models.base__moduleの_HumanMessage_classが含まれます。これらのモジュールは、PAI-EASでチャットモデルを実行するための基盤を提供します。
import os
from langchain.chat_models import PaiEasChatEndpoint
from langchain.chat_models.base import HumanMessage
os.environ["EAS_SERVICE_URL"] = "Your_EAS_Service_URL"
os.environ["EAS_SERVICE_TOKEN"] = "Your_EAS_Service_Token"
chat = PaiEasChatEndpoint(
eas_service_url=os.environ["EAS_SERVICE_URL"],
eas_service_token=os.environ["EAS_SERVICE_TOKEN"],
)
PAI-EASのサービスURLとトークンをパラメータとして渡すことで、_PaiEasChatEndpoint_classのインスタンスを作成します。これにより、EASサービスへの接続が初期化され、チャットモデルの対話の準備が整います。
output = chat([HumanMessage(content="write a funny joke")])
print("output:", output)
チャットメソッドを呼び出し、望ましい入力内容の_HumanMessage_ objectを渡すことで、チャットモデルを利用します。デフォルトでは、チャットモデルは推論のためのデフォルト設定を使用します。ただし、_temperature, top_p, top_k_などの追加のキーワード引数を含めることで、推論パラメータをカスタマイズすることができます。これにより、モデルの振る舞いを要件に合わせて最適化することができます。
kwargs = {"temperature": 0.8, "top_p": 0.8, "top_k": 5}
output = chat([HumanMessage(content="write a funny joke")], **kwargs)
print("output:", output)
以下は、PaiEasEndpointの他のパラメータのリストです:
Parameter Name | Type | Purpose | Default Value |
---|---|---|---|
eas_service_url | str | Service access URL | |
eas_service_token | str | Service access token | |
max_new_tokens | Optional[int] | Maximum output token ID length | 512 |
temperature | Optional[float] | 0.95 | |
top_p | Optional[float] | 0.1 | |
top_k | Optional[int] | 10 | |
stop_sequences | Optional[List[str]] | Output truncation character set | |
streaming | bool | Whether to use streaming output | False |
model_kwargs | Optional[dict] | Other parameters for EAS LLM inference |
よりダイナミックなインタラクションを得るために、ストリームコールを実行してストリームレスポンスを取得することができます。ストリームメソッドを呼び出す際に、ストリーミングパラメーターを_True_に設定してください。ストリームの出力を反復処理して、各レスポンスをリアルタイムで処理します。
outputs = chat.stream([HumanMessage(content="hi")], streaming=True)
for output in outputs:
print("stream output:", output)
import os
from langchain.llms.pai_eas_endpoint import PaiEasEndpoint
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
# Initialize the EAS service endpoint
os.environ["EAS_SERVICE_URL"] = "EAS_SERVICE_URL",
os.environ["EAS_SERVICE_TOKEN"] = "EAS_SERVICE_TOKEN"
llm = PaiEasEndpoint(eas_service_url=os.environ["EAS_SERVICE_URL"], eas_service_token=os.environ["EAS_SERVICE_TOKEN"])
# Accessing EAS LLM services:
# Access method 1: Direct access
kwargs = {"temperature": 0.8, "top_p": 0.8, "top_k": 5}
output = llm("Say foo:", **kwargs)
# Access method 2: Template-based access
# 2.1 Prepare the question template
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate(template=template, input_variables=["question"])
# 2.2 Wrap with LLMChain
llm_chain = LLMChain(prompt=prompt, llm=llm)
# 2.3 Access the service
question = "What NFL team won the Super Bowl in the year Justin Bieber was born?"
llm_chain.run(question)
Alibaba Cloud PAIは、最先端のプラットフォームが絶妙に組み合わさったものであり、技術と魅力的な機能を提供し、GenAIの領域で変革的な体験を創造します。言語がAIの創造性とイノベーションのキャンバスとなる旅に備えてください。PAIを使ってLLMの真のポテンシャルを解き放ってください - それはGenAIの未来への入り口です!
Alibaba Cloud PAI-EASを使用することで、チャットモデルの展開と実行がシームレスかつ効率的なプロセスになります。上記の手順と情報を利用することで、チャットモデルのフルポテンシャルを引き出し、知的な対話体験を創造することができます。PAI-EASは、開発者が機械学習の能力を容易に活用できるだけでなく、高いスループット、低レイテンシ、包括的な運用・保守機能も提供します。今日からアプリケーション内でチャットモデルを活用し、エキサイティングなAI駆動の対話の旅に出かけましょう。
Alibaba CloudのPAI-EAS上でLLMとLangChainのパワーを体験し、パフォーマンスの向上とコスト削減の旅に出ましょう。Alibaba Cloudにお問い合わせして、ジェネレーティブAIの世界を探索し、アプリケーションやビジネスを変革する方法を発見してください。
本文はAIによって翻訳されました。ここで表明されている意見は参考までにお読みいただくものであり、必ずしもAlibaba Cloudの公式の意見を代表するものではありません。原文はこちらです。
89 posts | 3 followers
FollowRegional Content Hub - August 5, 2024
Regional Content Hub - February 26, 2024
Regional Content Hub - May 13, 2024
Regional Content Hub - March 8, 2024
Regional Content Hub - March 8, 2024
Regional Content Hub - May 28, 2024
89 posts | 3 followers
FollowA platform that provides enterprise-level data modeling services based on machine learning algorithms to quickly meet your needs for data-driven operations.
Learn MoreAccelerate AI-driven business and AI model training and inference with Alibaba Cloud GPU technology
Learn MoreTop-performance foundation models from Alibaba Cloud
Learn MoreAccelerate innovation with generative AI to create new business success
Learn MoreMore Posts by Regional Content Hub