全部產品
Search
文件中心

AnalyticDB:Spark開發編輯器

更新時間:Jul 06, 2024

本文介紹如何在雲原生資料倉儲AnalyticDB MySQL版控制台建立和執行Spark應用。

功能說明

  • 通過Spark開發編輯器建立和執行Spark離線應用或流應用。

  • 查看當前Spark應用Driver的日誌和應用提交時的相關資訊。

  • 查看SQL語句的執行日誌。

前提條件

建立和執行Spark應用

  1. 登入雲原生資料倉儲AnalyticDB MySQL控制台
  2. 在頁面左上方,選擇叢集所在地區。
  3. 在左側導覽列,單擊集群清單
  4. 湖倉版(3.0)頁簽下,單擊目標集群ID
  5. 在左側導覽列,單擊作業開發 > Spark Jar開發

  6. Spark Jar開發頁面,單擊應用列表右側的1

  7. 建立應用模板頁面,按照頁面提示進行參數配置。

    參數名稱

    參數說明

    名稱

    設定應用和目錄的名字。檔案名稱不區分大小寫。

    類型

    • 選擇應用時,模板類型為檔案。

    • 選擇目錄時,模板類型為檔案夾。

    父級

    設定檔案或者檔案夾的上層目錄。

    作業類型

    • Batch:離線應用。

    • Streaming:流應用。

    • SQL Engine:Spark Distribution SQL Engine。

  8. 完成上述參數配置後,單擊確定建立應用模板。

  9. 建立Spark模板檔案後,您可以在Spark開發編輯器中配置Spark應用。如何配置Spark應用,請參見Spark應用開發介紹

  10. Spark應用配置編寫完成後,您可以進行以下操作。

    • 單擊儲存,儲存Spark應用,便於後續複用應用。

    • 單擊立即執行,執行Spark應用,應用列表會即時顯示執行狀態。

      說明

      在執行Spark應用前,需要選擇Job型資源群組和應用類型。

查看Spark應用資訊

  1. 應用列表頁簽中,搜尋應用ID,執行以下操作,查看目標Spark應用資訊。

    • 日誌:查看當前Spark應用Driver的日誌或SQL語句的執行日誌。

    • UI:跳轉到對應的Spark UI。UI自身有訪問有效期間限制,到期後需要重新進入。

    • 詳情:當前應用提交時的相關資訊。如日誌地址、Web UI地址、叢集ID、資源群組名稱等。

    • 停止:終止當前運行中的應用。

    • 歷史:查看當前應用的重試列表。

  2. 執行歷史頁簽中,查看所有應用的重試列表。

    說明

    預設情況下,一個應用失敗後不會進行重試。如需進行重試,請配置重試參數(spark.adb.maxAttempts和spark.adb.attemptFailuresValidityInterval)。更多資訊,請參見Spark應用配置參數說明中的配置參數說明。