×
Community Blog AI Generatif di Alibaba Cloud - Bagian 2: PaaS

AI Generatif di Alibaba Cloud - Bagian 2: PaaS

Bagian kedua dari seri tiga bagian ini memperkenalkan PaaS dan menjelajahi cara menyebarkan layanan AI generatif yang bermanfaat dalam beberapa menit menggunakan PAI.

Oleh JV Roig

Selamat datang di bagian 2 dalam seri pendekatan penyebaran AI generatif di Alibaba Cloud ini.

Di bagian 1 seri ini, kita membahas penyebaran GenAI IaaS (Infrastructure sebagai Layanan), menggunakan Elastic Compute Service (ECS). Seperti yang kita lihat dari bagian 1, ini adalah cara yang sangat efektif dan fleksibel untuk menyebarkan AI generatif. Sayangnya, banyak langkah yang diperlukan, dan banyak beban manajemen karena kita bertanggung jawab atas operasi dan pemeliharaan seluruh tumpukan.

Bisakah kita membuatnya lebih mudah, lebih cepat, dan dengan beban yang lebih ringan? Tentu saja bisa!

Hari ini, kita akan membahas pendekatan PaaS (Platform sebagai Layanan), menggunakan Platform untuk AI (PAI) Alibaba Cloud. Kita akan melihat cara pendekatan PaaS membantu mengurangi beban operasional yang terlibat, dan memungkinkan kita menyebarkan layanan AI generatif yang berguna dalam hitungan menit.

Mulai Menggunakan PAI

Masuk ke konsol web Alibaba Cloud Anda, lalu cari PAI. Klik hasil yang muncul (Platform for AI), dan Anda akan melihat konsol PAI:

1

Kita dapat menyebarkan LLM dengan cepat baik dari QuickStart (di dekat bagian atas bilah sisi kiri) atau EAS/Elastic Algorithm Service (di dekat bagian tengah bilah sisi kiri). Dalam kedua kasus tersebut, layanan disebarkan sebagai instans EAS, jadi bagaimanapun juga Anda akhirnya akan menggunakan EAS.

Mari kita langsung ke EAS. Klik Elastic Algorithm Service di bawah Penyebaran Model , dan Anda akan melihat layar ini:

2

Klik Sebarkan Layanan.

3

Untuk tutorial ini, klik Penyebaran LLM di bawah Penyebaran Model Berbasis Skenario.

4

Untuk peluncuran contoh ini, Anda dapat mengikuti pengaturan seperti yang terlihat dalam tangkapan layar di atas:

• Beri nama layanan kita, misalnya test_service_deployment

• Pilih Model Sumber Terbuka, dan pilih model kecil seperti Qwen2-7b (catatan: berhati-hatilah agar tidak memilih versi 72b yang sangat besar secara tidak sengaja, itu sangat berbeda)

• Biarkan jenis instans default, tetapi hapus akselerasi (BladeLLM memerlukan jenis GPU berbeda, yang saat ini tidak penting untuk tutorial dasar ini)

Itu saja yang perlu kita ubah. Klik Sebarkan.

Tidak seperti penyebaran GenAI IaaS berbasis ECS, ini saja yang perlu kita lakukan untuk membuat infrastruktur! Hanya dalam beberapa klik dan dalam hitungan menit, infrastruktur kita sudah disiap.

Itulah keunggulan dan kemudahan menggunakan pendekatan Platform sebagai Layanan untuk GenAI.

Perlu waktu beberapa menit untuk menyelesaikan penyebaran, kemudian Anda akan melihat statusnya berubah menjadi Berjalan:

5

Terdapat tautan Lihat Aplikasi Web. Klik tautan tersebut untuk mengakses aplikasi obrolan demo bawaan layanan, yang memungkinkan Anda untuk menguji langsung dengan mudah:

6

Pesan pertama yang Anda kirim perlu sedikit waktu, karena LLM perlu waktu untuk dimuat ke dalam memori terlebih dahulu. Tetapi, pesan berikutnya, akan terkirim secepat kilat setelah pemuatan awal tersebut.

Tentu saja, aplikasi web itu bukan perhatian utama kita, itu hanya bonus. Sekarang mari mulai mengintegrasikan layanan LLM kita ke dalam aplikasi menggunakan API!

Menggunakan API PAI EAS dalam kode Python

Berikut contoh kode yang menggunakan layanan API LLM kita yang baru disebar:

7

Anda harus mengubah parameter url dan Otorisasi (baris 4 dan 6) dengan parameter aktual Anda dari PAI EAS. Di konsol PAI EAS, klik nama layanan yang sebar, lalu klik Lihat Informasi Titik Akhir dari layar Detail Layanan yang muncul. Pop-up dengan URL titik akhir dan token autentikasi Anda akan muncul.

8

Kembali ke kode Python kita. Jika menjalankan kode Python tersebut, kita mendapatkan jawaban berikut:

9

Seperti dalam penyebaran GenAI berbasis ECS (IaaS), LLM merespons seperti bajak laut (karena perintah sistem kita) dan memberi kita ide untuk liburan berlayar (karena perintah kita).

Rangkuman

Dibandingkan dengan penyebaran kita sebelumnya dari Bagian 1 dari seri ini, semuanya cukup mudah dan lebih cepat untuk disebarkan dan digunakan – dari hitungan jam hingga hitungan menit, dibandingkan dengan ECS!

Sekarang, Anda mungkin bertanya: JV, ada cara yang LEBIH CEPAT LAGI?

Ya, tentu saja!

Lain kali, di bagian 3, kita akan mempelajari cara yang lebih cepat itu: Model Studio Alibaba Cloud.

Sampai jumpa lagi!


TENTANG PENULIS: JV adalah seorang Arsitek Solusi Senior di Alibaba Cloud PH, dan memimpin strategi data dan AI generatif tim. Jika Anda merasa sesuatu dalam artikel ini relevan dengan beberapa masalah bisnis Anda saat ini, silakan hubungi JV di jv.roig@alibaba-inc.com.


Artikel ini diterjemahkan dari bahasa Inggris. Lihat artikel aslinya di sini.

0 0 0
Share on

Regional Content Hub

70 posts | 2 followers

You may also like

Comments

Regional Content Hub

70 posts | 2 followers

Related Products