GPU容器共享技术cGPU是阿里云基于内核虚拟GPU隔离的容器共享技术。即多个容器共享一张GPU卡,从而实现业务的安全隔离,提高GPU硬件资源的利用率并降低使用成本。
为什么选择cGPU
兼容性好
不仅适配标准的Docker和Containerd工作方式,而且还无缝兼容Kubernetes工作方式。
操作简单
无需重编译AI应用,运行时无需替换CUDA库。
资源灵活划分
物理GPU的资源可以进行任意划分。例如,GPU显存动态划分,支持M级划分、GPU利用率动态划分,算力支持最小2%粒度的划分。
GPU实例规格无限制
适用于GPU裸金属实例,虚拟化实例,vGPU实例等各种GPU实例。
应用场景丰富
支持在离线混部业务(即在线业务和离线业务)、支持CUDA AI和渲染应用场景。
功能强大
具备高优先级的抢占功能和较高的可运维能力,支持热升级、支持多卡划分功能。
cGPU架构图
GPU容器共享技术cGPU的架构图如下所示:
为了提高GPU硬件资源的利用率,需要在单张显卡上运行多个容器,并在多个容器间隔离GPU应用。
cGPU通过自研的内核驱动为容器提供虚拟的GPU设备,在保证性能的前提下隔离显存和算力,为充分利用GPU硬件资源进行训练和推理提供有效保障。您可以通过命令方便地配置容器内的虚拟GPU设备。