本文介紹如何在雲原生資料倉儲AnalyticDB MySQL版控制台建立和執行Spark應用。
功能說明
通過Spark開發編輯器建立和執行Spark離線應用或流應用。
查看當前Spark應用Driver的日誌和應用提交時的相關資訊。
查看SQL語句的執行日誌。
前提條件
已建立AnalyticDB MySQL企業版及湖倉版叢集,詳情請參見建立叢集。
已建立Job型資源群組,且計算預留資源需大於等於8 ACU。建立資源群組,詳情請參見建立資源群組。
已為RAM使用者授權。具體操作,請參見為RAM子帳號授權。
已將RAM使用者(子帳號)綁定到AnalyticDB MySQL的資料庫帳號上。具體操作,請參見綁定或解除綁定RAM使用者與資料庫帳號。
已建立AliyunADBSparkProcessingDataRole角色並授權。具體操作,請參見帳號授權。
建立和執行Spark應用
- 登入雲原生資料倉儲AnalyticDB MySQL控制台。
- 在頁面左上方,選擇叢集所在地區。
- 在左側導覽列,單擊集群清單。
- 在湖倉版(3.0)頁簽下,單擊目標集群ID。
在左側導覽列,單擊 。
在Spark Jar開發頁面,單擊應用列表右側的。
在建立應用模板頁面,按照頁面提示進行參數配置。
參數名稱
參數說明
名稱
設定應用和目錄的名字。檔案名稱不區分大小寫。
類型
選擇應用時,模板類型為檔案。
選擇目錄時,模板類型為檔案夾。
父級
設定檔案或者檔案夾的上層目錄。
作業類型
Batch:離線應用。
Streaming:流應用。
SQL Engine:Spark Distribution SQL Engine。
完成上述參數配置後,單擊確定建立應用模板。
建立Spark模板檔案後,您可以在Spark開發編輯器中配置Spark應用。如何配置Spark應用,請參見Spark應用開發介紹。
Spark應用配置編寫完成後,您可以進行以下操作。
單擊儲存,儲存Spark應用,便於後續複用應用。
單擊立即執行,執行Spark應用,應用列表會即時顯示執行狀態。
說明在執行Spark應用前,需要選擇Job型資源群組和應用類型。
查看Spark應用資訊
在應用列表頁簽中,搜尋應用ID,執行以下操作,查看目標Spark應用資訊。
日誌:查看當前Spark應用Driver的日誌或SQL語句的執行日誌。
UI:跳轉到對應的Spark UI。UI自身有訪問有效期間限制,到期後需要重新進入。
詳情:當前應用提交時的相關資訊。如日誌地址、Web UI地址、叢集ID、資源群組名稱等。
停止:終止當前運行中的應用。
歷史:查看當前應用的重試列表。
在執行歷史頁簽中,查看所有應用的重試列表。
說明預設情況下,一個應用失敗後不會進行重試。如需進行重試,請配置重試參數(spark.adb.maxAttempts和spark.adb.attemptFailuresValidityInterval)。更多資訊,請參見Spark應用配置參數說明中的配置參數說明。