全部产品
Search
文档中心

GPU 云服务器:什么是GPU容器共享技术cGPU

更新时间:Jul 15, 2024

GPU容器共享技术cGPU是阿里云基于内核虚拟GPU隔离的容器共享技术。即多个容器共享一张GPU卡,从而实现业务的安全隔离,提高GPU硬件资源的利用率并降低使用成本。

为什么选择cGPU

  • 兼容性好

    不仅适配标准的Docker和Containerd工作方式,而且还无缝兼容Kubernetes工作方式。

  • 操作简单

    无需重编译AI应用,运行时无需替换CUDA库。

  • 资源灵活划分

    物理GPU的资源可以进行任意划分。例如,GPU显存动态划分,支持M级划分、GPU利用率动态划分,算力支持最小2%粒度的划分。

  • GPU实例规格无限制

    适用于GPU裸金属实例,虚拟化实例,vGPU实例等各种GPU实例。

  • 应用场景丰富

    支持在离线混部业务(即在线业务和离线业务)、支持CUDA AI和渲染应用场景。

  • 功能强大

    具备高优先级的抢占功能和较高的可运维能力,支持热升级、支持多卡划分功能。

cGPU架构图

GPU容器共享技术cGPU的架构图如下所示:

cGPU架构图

为了提高GPU硬件资源的利用率,需要在单张显卡上运行多个容器,并在多个容器间隔离GPU应用。

cGPU通过自研的内核驱动为容器提供虚拟的GPU设备,在保证性能的前提下隔离显存和算力,为充分利用GPU硬件资源进行训练和推理提供有效保障。您可以通过命令方便地配置容器内的虚拟GPU设备。