全部產品
Search
文件中心

AnalyticDB:Spark開發編輯器

更新時間:Dec 04, 2024

本文介紹如何在AnalyticDB for MySQL控制台建立和執行Spark應用。

功能說明

  • 通過Spark開發編輯器建立和執行Spark離線應用或流應用。

  • 查看當前Spark應用Driver的日誌和應用提交時的相關資訊。

  • 查看SQL語句的執行日誌。

前提條件

  • 叢集的產品系列為湖倉版

  • 已在湖倉版叢集中建立Job型資源群組。具體操作,請參見建立資源群組

  • 已為RAM使用者授權。具體操作,請參見為RAM子帳號授權

  • 已建立AnalyticDB for MySQL叢集的資料庫帳號。

  • 已授權AnalyticDB for MySQL扮演AliyunADBSparkProcessingDataRole角色來訪問其他雲資源。具體操作,請參見帳號授權

  • 已配置Spark應用的日誌儲存地址。

    說明

    登入雲原生資料倉儲AnalyticDB MySQL控制台,在作業開發 > Spark Jar 開發頁面,單擊日誌配置,選擇預設路徑或自訂儲存路徑。自訂儲存路徑時不能將日誌儲存在OSS的根目錄下,請確保該路徑中至少包含一層檔案夾。

建立和執行Spark應用

  1. 登入雲原生資料倉儲AnalyticDB MySQL控制台,在左上方選擇叢集所在地區。在左側導覽列,單擊集群清單,在湖倉版頁簽下,單擊目的地組群ID。

  2. 在左側導覽列,單擊作業開發 > Spark Jar開發

  3. Spark Jar開發頁面,單擊應用列表右側的1

  4. 建立應用頁面,按照頁面提示進行參數配置。

    參數名稱

    參數說明

    名稱

    設定應用和目錄的名字。檔案名稱不區分大小寫。

    類型

    • 選擇應用時,模板類型為檔案。

    • 選擇目錄時,模板類型為檔案夾。

    父級

    設定檔案或者檔案夾的上層目錄。

    作業類型

    • Batch:離線應用。

    • Streaming:流應用。

    • SQL Engine:Spark distributed SQL Engine。

  5. 完成上述參數配置後,單擊確定建立應用模板。

  6. 建立Spark模板檔案後,您可以在Spark開發編輯器中配置Spark應用。如何配置Spark應用,請參見Spark應用開發介紹

  7. Spark應用配置編寫完成後,您可以進行以下操作。

    • 單擊儲存,儲存Spark應用,便於後續複用應用。

    • 單擊立即執行,執行Spark應用,應用列表會即時顯示執行狀態。

    • 說明

      在執行Spark應用前,需要選擇Job型資源群組和應用類型。

查看Spark應用資訊

  1. 應用列表頁簽中,搜尋應用ID,執行以下操作,查看目標Spark應用資訊。

    • 日誌:查看當前Spark應用Driver的日誌或SQL語句的執行日誌。

    • UI:跳轉到對應的Spark UI。UI自身有訪問有效期間限制,到期後需要重新進入。

    • 詳情:當前應用提交時的相關資訊。如日誌地址、Web UI地址、叢集ID、資源群組名稱等。

    • 停止:終止當前運行中的應用。

    • 歷史:查看當前應用的重試列表。

  2. 執行歷史頁簽中,查看所有應用的重試列表。

    說明

    預設情況下,一個應用失敗後不會進行重試。如需進行重試,請配置重試參數(spark.adb.maxAttempts和spark.adb.attemptFailuresValidityInterval)。更多資訊,請參見Spark應用配置參數說明中的配置參數說明。