全部產品
Search
文件中心

Platform For AI:推理加速(Blade)概述

更新時間:Jul 13, 2024

PAI-Blade結合了多種最佳化技術,對訓練完成的模型進行最佳化,從而達到最優的推理效能。同時,PAI-Blade提供的C++ SDK可以部署最佳化後的模型推理,協助您快速的將模型應用於生產。本文介紹PAI-Blade的工作原理和使用流程。

背景資訊

PAI-Blade是PAI推出的通用推理最佳化工具,可以通過模型系統聯合最佳化,使模型達到最優推理效能。它有機融合了計算圖最佳化、TensorRT/oneDNN等vendor最佳化庫、AI編譯最佳化、Blade手工最佳化運算元庫、Blade混合精度及Blade Auto-Compression等多種最佳化技術,會先對模型進行分析,再對其部分或全部應用最佳化技術。

PAI-Blade的所有最佳化技術均面向通用性設計,可以應用於不同的業務情境。同時,PAI-Blade對每一步最佳化的數值結果都進行了準確性驗證,從而確保最佳化結果不會對模型的精度或指標產生非預期影響。

PAI-Blade是為了降低模型最佳化門檻、提升使用者體驗和生產效率而推出的新產品形態。

工作原理

PAI-Blade以Wheel包的形式安裝到使用者環境,無需申請資源、上傳模型和資料的繁瑣步驟。您可以在代碼中調用PAI-Blade的Python介面,使模型最佳化整合在工作流程中,且能夠在本地對最佳化完成的模型進行效能驗證。此外,您還可以便捷地嘗試不同的最佳化策略、探索更多的最佳化參數組合。

同時,PAI-Blade提供C++ SDK供您部署服務。雖然最佳化完成的模型在運行時需要依賴SDK,但是無需修改模型代碼,您只需要連結PAI-Blade的庫檔案即可。

使用流程

您可以參考如下流程使用PAI-Blade:

  1. 安裝Blade

  2. 最佳化模型,詳情請參見最佳化TensorFlow模型最佳化PyTorch模型

    如果您需要對模型進行量化最佳化,請參見量化最佳化。如果需要指定編譯最佳化的模式,請參見AI編譯器最佳化

  3. 解讀取最佳化報告,詳情請參見最佳化報告

  4. 部署模型推理,詳情請參見使用SDK部署TensorFlow模型推理使用SDK部署PyTorch模型推理使用Blade EAS Plugin最佳化並部署模型