借助阿里云在亚洲加速迈向成功
一站式安全合规咨询服务
MLPS 2.0 一站式合规解决方案
依托我们的网络进军中国市场
提升面向互联网应用的性能和安全性
保障您的中国业务安全无忧
通过强大的数据安全框架保护您的数据资产
申请 ICP 备案的流程解读和咨询服务
面向大数据建设、管理及应用的全域解决方案
企业内大数据建设、管理和应用的一站式解决方案
将您的采购和销售置于同一企业级全渠道数字平台上
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
快速搭建在线教育平台
提供域名注册、分析和保护服务
云原生 Kubernetes 容器化应用运行环境
以 Kubernetes 为使用界面的容器服务产品,提供符合容器规范的算力资源
安全的镜像托管服务,支持全生命周期管理
多集群环境下微服务应用流量统一管理
提供任意基础设施上容器集群的统一管控,助您轻松管控分布式云场景
高弹性、高可靠的企业级无服务器 Kubernetes 容器产品
敏捷安全的 Serverless 容器运行服务
为虚拟机和容器提供高可靠性、高性能、低时延的块存储服务
一款海量、安全、低成本、高可靠的云存储服务
可靠、弹性、高性能、多共享的文件存储服务
全托管、可扩展的并行文件系统服务。
全托管的 NoSQL 结构化数据实时存储服务
可抵扣多种存储产品的容量包,兼具灵活性和长期成本优化
让您的应用跨不同可用区资源自动分配访问量
随时绑定和解绑 VPC ECS
云网络公网、跨域流量统一计费
高性价比,可抵扣按流量计费的流量费用
创建云上隔离的网络,在专有环境中运行资源
在 VPC 环境下构建公网流量的出入口
具备网络状态可视化、故障智能诊断能力的自助式网络运维服务。
安全便捷的云上服务专属连接
基于阿里云专有网络的私有 DNS 解析服务
保障在线业务不受大流量 DDoS 攻击影响
系统运维和安全审计管控平台
业务上云的第一个网络安全基础设施
集零信任内网访问、办公数据保护、终端管理等多功能于一体的办公安全管控平台
提供7X24小时安全运维平台
防御常见 Web 攻击,缓解 HTTP 泛洪攻击
实现全站 HTTPS,呈现可信的 WEB 访问
为云上应用提供符合行业标准和密码算法等级的数据加解密、签名验签和数据认证能力
一款发现、分类和保护敏感数据的安全服务
创建、控制和管理您的加密密钥
快速提高应用高可用能力服务
围绕应用和微服务的 PaaS 平台
兼容主流开源微服务生态的一站式平台
多集群环境下微服务应用流量统一管理
Super MySQL 和 PostgreSQL,高度兼容 Oracle 语法
全托管 MySQL、PostgreSQL、SQL Server、MariaDB
兼容 Redis® 的缓存和KV数据库
兼容Apache Cassandra、Apache HBase、Elasticsearch、OpenTSDB 等多种开源接口
文档型数据库,支持副本集和分片架构
100%兼容 Apache HBase 并深度扩展,稳定、易用、低成本的NoSQL数据库。
低成本、高可用、可弹性伸缩的在线时序数据库服务
专为搜索和分析而设计,成本效益达到开源的两倍,采用最新的企业级AI搜索和AI助手功能。
一款兼容PostgreSQL协议的实时交互式分析产品
一种快速、完全托管的 TB/PB 级数据仓库
基于 Flink 为大数据行业提供解决方案
基于Qwen和其他热门模型的一站式生成式AI平台,可构建了解您业务的智能应用程
一站式机器学习平台,满足数据挖掘分析需求
高性能向量检索服务,提供低代码API和高成本效益
帮助您的应用快速构建高质量的个性化推荐服务能力
提供定制化的高品质机器翻译服务
全面的AI计算平台,满足大模型训练等高性能AI计算的算力和性能需求
具备智能会话能力的会话机器人
基于机器学习的智能图像搜索产品
基于阿里云深度学习技术,为用户提供图像分割、视频分割、文字识别等离线SDK能力,支持Android、iOS不同的适用终端。
语音识别、语音合成服务以及自学习平台
一站式智能搜索业务开发平台
助力金融企业快速搭建超低时延、高质量、稳定的行情数据服务
帮助企业快速测算和分析企业的碳排放和产品碳足迹
企业工作流程自动化,全面提高效率
金融级云原生分布式架构的一站式高可用应用研发、运维平台
eKYC 数字远程在线解决方案
可智能检测、大数据驱动的综合性反洗钱 (AML) 解决方案
阿里云APM类监控产品
实时云监控服务,确保应用及服务器平稳运行
为系统运维人员管理云基础架构提供全方位服务的云上自动化运维平台
面向您的云资源的风险检测服务
提升分布式环境下的诊断效率
日志类数据一站式服务,无需开发就能部署
ECS 预留实例
让弹性计算产品的成本和灵活性达到最佳平衡的付费方式。云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势自带IP上云
自带公网 IP 地址上云全球网络互联
端到端的软件定义网络解决方案,可推动跨国企业的业务发展全球应用加速
提升面向互联网应用的性能和安全性全球互联网接入
将IDC网关迁移到云端云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势金融科技云数据库解决方案
利用专为金融科技而设的云原生数据库解决方案游戏行业云数据库解决方案
提供多种成熟架构,解决所有数据问题Oracle 数据库迁移
将 Oracle 数据库顺利迁移到云原生数据库数据库迁移
加速迁移您的数据到阿里云阿里云上的数据湖
实时存储、管理和分析各种规模和类型的数据数码信贷
利用大数据和 AI 降低信贷和黑灰产风险面向企业数据技术的大数据咨询服务
帮助企业实现数据现代化并规划其数字化未来人工智能对话服务
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人EasyDispatch 现场服务管理
为现场服务调度提供实时AI决策支持在线教育
快速搭建在线教育平台窄带高清 (HD) 转码
带宽成本降低高达 30%广电级大型赛事直播
为全球观众实时直播大型赛事,视频播放流畅不卡顿直播电商
快速轻松地搭建一站式直播购物平台用于供应链规划的Alibaba Dchain
构建和管理敏捷、智能且经济高效的供应链云胸牌
针对赛事运营的创新型凭证数字服务数字门店中的云 POS 解决方案
将所有操作整合到一个云 POS 系统中元宇宙
元宇宙是下一代互联网人工智能 (AI) 加速
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速DevOps
快速、安全地最大限度提高您的DevOps优势数据迁移解决方案
加速迁移您的数据到阿里云企业 IT 治理
在阿里云上构建高效可控的云环境基于日志管理的AIOps
登录到带有智能化日志管理解决方案的 AIOps 环境备份与存档
数据备份、数据存档和灾难恢复用阿里云金融服务加快创新
在云端开展业务,提升客户满意度
为全球资本市场提供安全、准确和数字化的客户体验
利用专为金融科技而设的云原生数据库解决方案
利用大数据和 AI 降低信贷和黑灰产风险
建立快速、安全的全球外汇交易平台
新零售时代下,实现传统零售业转型
利用云服务处理流量波动问题,扩展业务运营、降低成本
快速轻松地搭建一站式直播购物平台
面向大数据建设、管理及应用的全域解决方案
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
以数字化媒体旅程为当今的媒体市场准备就绪您的内容
带宽成本降低高达 30%
快速轻松地搭建一站式直播购物平台
为全球观众实时直播大型赛事,视频播放流畅不卡顿
使用阿里云弹性高性能计算 E-HPC 将本地渲染农场连接到云端
构建发现服务,帮助客户找到最合适的内容
保护您的媒体存档安全
通过统一的数据驱动平台提供一致的全生命周期客户服务
在钉钉上打造一个多功能的电信和数字生活平台
在线存储、共享和管理照片与文件
提供全渠道的无缝客户体验
面向中小型企业,为独立软件供应商提供可靠的IT服务
打造最快途径,助力您的新云业务扬帆起航
先进的SD-WAN平台,可实现WAN连接、实时优化并降低WAN成本
通过自动化和流程标准化实现快速事件响应
针对关键网络安全威胁提供集中可见性并进行智能安全分析
提供大容量、可靠且高度安全的企业文件传输
用智能技术数字化体育赛事
基于人工智能的低成本体育广播服务
专业的广播转码及信号分配管理服务
基于云的音视频内容引入、编辑和分发服务
在虚拟场馆中模拟关键运营任务
针对赛事运营的创新型凭证数字服务
智能和交互式赛事指南
轻松管理云端背包单元的绑定直播流
通过数据加强您的营销工作
元宇宙是下一代互联网
利用生成式 AI 加速创新,创造新的业务佳绩
阿里云高性能开源大模型
借助AI轻松解锁和提炼文档中的知识
通过AI驱动的语音转文本服务获取洞察
探索阿里云人工智能和数据智能的所有功能、新优惠和最新产品
该体验中心提供广泛的用例和产品帮助文档,助您开始使用阿里云 AI 产品和浏览您的业务数据。
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速
元宇宙是下一代互联网
构建发现服务,帮助客户找到最合适的内容
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
加速迁移您的数据到阿里云
在阿里云上建立一个安全且易扩容的环境,助力高效率且高成本效益的上云旅程
迁移到完全托管的云数据库
将 Oracle 数据库顺利迁移到云原生数据库
自带公网 IP 地址上云
利用阿里云强大的安全工具集,保障业务安全、应用程序安全、数据安全、基础设施安全和帐户安全
保护、备份和还原您的云端数据资产
MLPS 2.0 一站式合规解决方案
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
实现对 CloudOps、DevOps、SecOps、AIOps 和 FinOps 的高效、安全和透明的管理
构建您的原生云环境并高效管理集群
快速、安全地最大限度提高您的DevOps优势
实施细粒度安全控制
提供运维效率和总体系统安全性
实时分析您的云消耗并实现节约
实时存储、管理和分析各种规模和类型的数据
登录到带有智能化日志管理解决方案的 AIOps 环境
帮助企业实现数据现代化并规划其数字化未来
帮助零售商快速规划数字化之旅
将全球知名的 CRM 平台引入中国
在线存储、共享和管理照片与文件
构建、部署和管理高可用、高可靠、高弹性的应用程序
快速、安全地最大限度提高您的DevOps优势
将您的采购和销售置于同一企业级全渠道数字平台上
企业内大数据建设、管理和应用的一站式解决方案
帮助企业简化 IT 架构、实现商业价值、加速数字化转型的步伐
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
快速搜集、处理、分析联网设备产生的数据
0.0.201
本文通过实现五个目标任务举例说明如何在多用户场景下使用Arena。
请确保您已完成以下操作:
创建一个ACK集群。详情请参见创建ACK托管集群。
在ACK集群同VPC下,创建一个操作系统为Linux的ECS实例。具体操作步骤请参见自定义购买实例。
本示例中,ECS实例被称为Client机器。Client机器作为Arena的工作站,提交作业至ACK集群。
安装最新版本Arena。具体操作步骤请参见配置Arena客户端。
当多个开发人员在一个公司或大团体下使用Arena进行工作时,为了有效管理,您可能需要对这些人员进行小组划分,且每个小组需要彼此隔离。这样在同一个集群内,小组就是您分配、隔离资源和权限的基本单元。
通常您需要将整个集群的资源(GPU、CPU、MEM)根据具体需求划分给每个组,并且给组内成员分配不同权限,以及提供各自独立的Arena使用环境。其中权限包括:用户对于作业的可见、可操作权限,用户的作业对特定数据的读写权限。
图 1. 配置多用户使用Arena的工作环境图
本文示例中的ACK集群和Client机器的节点信息如下表所示。
主机名 | 角色 | IP地址 | GPU卡数 | CPU核数 | MEM |
主机名 | 角色 | IP地址 | GPU卡数 | CPU核数 | MEM |
client01 | Client | 10.0.0.97(私有)39.98.xxx.xxx(公) | 0 | 2 | 8 GiB |
master01 | Master | 10.0.0.91(私有) | 0 | 4 | 8 GiB |
master02 | Master | 10.0.0.92(私有) | 0 | 4 | 8 GiB |
master03 | Master | 10.0.0.93(私有) | 0 | 4 | 8 GiB |
worker01 | Worker | 10.0.0.94(私有) | 1 | 4 | 30 GiB |
worker02 | Worker | 10.0.0.95(私有) | 1 | 4 | 30 GiB |
worker03 | Worker | 10.0.0.96(私有) | 1 | 4 | 30 GiB |
如无特殊说明,本文操作均为集群管理员(admin)操作,操作节点为Client机器。
本文最佳实践的示例中将达成以下五个目标任务:
目标一:您需要为当前ACK集群创建两个分组dev1和dev2,并且为这两个分组各添加一个用户bob和tom。
目标二:每个用户只能通过自己的账号和密码登录到Client机器,使用自己环境下的Arena。
目标三:bob和tom只对自己提交的作业可见,以及进行管理。
目标四:按组划分Worker节点GPU、CPU、MEM资源(注:仅Worker节点的计算资源才能被Arena作业使用)。
目标五:创建组内共享的数据卷,和组与组之间全局共享的数据卷。
表 1. 数据配置表
组名 | 用户 | GPU | CPU | MEM | 共享数据卷 |
dev1 | bob | 1 | 不限制 | 不限制 | dev1-public和department1-public-dev1 |
dev2 | tom | 2 | 8 | 60 GiB | dev2-public和department1-public-dev2 |
department1-public-dev1和department1-public-dev2数据卷指向的是同一份数据;组dev1和dev2为所有用户共享;dev1-public和dev2-public分别对应分组dev1、dev2用户独享的数据。
为了安全起见,不建议您直接登录ACK集群的Master节点安装使用Arena以及对集群进行操作,因此建议您在与ACK集群同一个VPC下创建ECS实例(Client机器)。通过配置KubeConfig文件,使用ECS实例节点对ACK集群进行访问。
创建Client机器上的用户和组。
通过kubectl连接ACK集群。
使用kubectl命令连接ACK集群时,您需要安装kubectl客户端工具和配置供集群管理员admin操作ACK集群的KubeConfig文件。有关具体的操作步骤,请参见获取集群KubeConfig并通过kubectl工具连接集群。
要求kubectl的版本大于或等于1.10。
执行以下代码在Client机器上创建对应的Linux UID和GID。
集群管理员需要为bob、tom以及分组dev1、dev2,在Client机器上创建对应的Linux UID和GID。通过Linux自身的账号系统机制,实现目标二,即每个用户只能通过自己的账号和密码登录到Client机器,使用自己环境下的Arena。
# 创建Linux用户组dev1和dev2
groupadd -g 10001 dev1
groupadd -g 10002 dev2
# 创建Linux用户bob和tom
adduser -u 20001 -s /bin/bash -G dev1 -m bob
adduser -u 20002 -s /bin/bash -G dev2 -m tom
# 设置用户bob登录操作AI平台的Linux节点的密码。
passwd bob
# 设置tom登录操作AI平台的Linux节点的密码。
passwd tom
创建ACK集群中的用户(服务账号)和组(命名空间)。
提交给AI平台的作业都将在ACK集群中运行。在ACK中,作业的拥有者以服务账号(ServiceAccount)区分,作业运行的环境以命名空间(Namespace)区分。运维管理员admin将创建ServiceAccount和Namespace,并保证与在Client机器上创建的用户和组对应。可以将Namespace对应组,ServiceAccount对应用户。
admin以root身份登录Client机器,并确保拥有操作集群的权限(通过kubectl连接ACK集群步骤中完成)。执行以下操作:
# 创建用户组dev1对应的命名空间
kubectl create namespace dev1
# 创建用户组dev2对应的命名空间
kubectl create namespace dev2
# 创建用户bob对应的服务账号
kubectl create serviceaccount bob -n dev1
# 创建用户tom对应的服务账号
kubectl create serviceaccount tom -n dev2
预期输出:
$ kubectl create namespace dev1
namespace/dev1 created
$ kubectl create namespace dev2
namespace/dev2 created
$ kubectl create serviceaccount bob -n dev1
serviceaccount/bob created
$ kubectl create serviceaccount tom -n dev2
serviceaccount/tom created
安装Arena。
集群管理员在Client机器上安装Arena。首先集群管理员以root身份登录到Client机器,下载社区最新Arena发布的release安装包,然后解压并执行安装包中install.sh脚本。有关具体的操作步骤,请参见配置Arena客户端。
在同一台Linux操作系统上,您只需安装一份Arena工具。管理员通过为每位用户配置各自的配置文件,从而实现隔离,便于用户以不同的权限使用Arena工具。
为用户创建Arena配置文件。
为了使不同用户以各自的身份和权限正确操作AI平台集群(ACK集群),首先您需要创建不同用户用于Arena连接ACK集群的环境配置文件(即创建在各自ServiceAccount下使用的KubeConfig文件)。
集群管理员以root身份登录到Client机器上,创建如下脚本并保存为generate-kubeconfig.sh:
#!/usr/bin/env bash
set -e
NAMESPACE=
SERVICE_ACCOUNT=
DURATION=
OUTPUT=
help() {
echo "Usage: $0 -n <namespace> -s <service-account> -d <duration> -o <output-file>"
echo ""
echo "Options:"
echo "-n, --namespace <namespace> Namespace of the service account."
echo "-s, --service-account <name> Name of the service account."
echo "-d, --duration <duration> Duration of the token e.g. 30d."
echo "-o, --output <file> Output file name. If not set, a temporary file will be created."
}
parse() {
while [ $# -gt 0 ]; do
case $1 in
-n | --namespace)
NAMESPACE="$2"
shift 2
;;
-s | --service-account)
SERVICE_ACCOUNT="$2"
shift 2
;;
-d | --duration)
DURATION="$2"
shift 2
;;
-o | --output)
OUTPUT="$2"
shift 2
;;
*)
help
exit 0
;;
esac
done
if [ -z "${NAMESPACE}" ] || [ -z "${SERVICE_ACCOUNT}" ] || [ -z "${DURATION}" ]; then
help
exit 0
fi
if [ -z "${OUTPUT}" ]; then
OUTPUT=$(mktemp -d)/config
elif [ -f "${OUTPUT}" ]; then
echo "Output file \"${OUTPUT}\" already exists."
exit 1
fi
}
# Generate kubeconfig
generate_kubeconfig() {
CONTEXT=$(kubectl config current-context)
CLUSTER=$(kubectl config view -o jsonpath="{.contexts[?(@.name==\"${CONTEXT}\")].context.cluster}")
SERVER=$(kubectl config view -o jsonpath="{.clusters[?(@.name==\"${CLUSTER}\")].cluster.server}")
TOKEN=$(kubectl create token "${SERVICE_ACCOUNT}" --namespace "${NAMESPACE}" --duration="${DURATION}")
CERT=$(mktemp)
mkdir -p "$(dirname "${OUTPUT}")"
kubectl config view --raw=true -o jsonpath="{.clusters[?(@.name==\"${CLUSTER}\")].cluster.certificate-authority-data}" | base64 -d >"${CERT}"
kubectl config set-cluster "${CLUSTER}" --kubeconfig="${OUTPUT}" --server="${SERVER}" --embed-certs=true --certificate-authority="${CERT}" >/dev/null
kubectl config set-credentials "${SERVICE_ACCOUNT}" --kubeconfig="${OUTPUT}" --token="${TOKEN}" >/dev/null
kubectl config set-context "${CLUSTER}-${NAMESPACE}-${SERVICE_ACCOUNT}-context" --kubeconfig="${OUTPUT}" --cluster="${CLUSTER}" --user="${SERVICE_ACCOUNT}" --namespace="${NAMESPACE}" >/dev/null
kubectl config use-context "${CLUSTER}-${NAMESPACE}-${SERVICE_ACCOUNT}-context" --kubeconfig="${OUTPUT}" >/dev/null
rm "${CERT}"
echo "Saved kubeconfig to \"${OUTPUT}\"."
}
main() {
parse "$@"
generate_kubeconfig
}
main "$@"
执行如下命令,为用户创建KubeConfig文件并保存至各自的家目录下,您可以自定义过期时间,例如下面示例将过期时间设置为720小时:
bash generate-kubeconfig.sh -n dev1 -s bob -d 720h -o /home/bob/.kube/config
bash generate-kubeconfig.sh -n dev2 -s tom -d 720h -o /home/tom/.kube/config
预期输出如下:
$ bash generate-kubeconfig.sh -n dev1 -s bob -d 720h -o /home/bob/.kube/config
Saved kubeconfig to "/home/bob/.kube/config".
$ bash generate-kubeconfig.sh -n dev2 -s tom -d 720h -o /home/tom/.kube/config
Saved kubeconfig to "/home/tom/.kube/config".
在ACK集群中为每个组(Namespace),按需创建组内的角色(Role)。
集群管理员可以为每个组(Namespace)在ACK集群的具体操作权限配置不同的角色(Role)。一个角色(Role)代表组(Namespace)内一系列具体权限规则的集合。有关ACK集群中角色(Role)的定义方法,请参见Using RBAC Authorization。
创建权限定义文件。
因为需要保证组dev1下用户bob和组dev2下用户tom的作业彼此不可见,并且独立管理各自的作业,所以需要给组dev1和dev2创建最小权限,并绑定到对应的用户上(即用户bob和tom对应的ServiceAccount)。
为用户组dev1创建如下权限定义文件并保存为dev1_roles.yaml;
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: arena-topnode
rules:
- apiGroups:
- ""
resources:
- pods
- services
- deployments
- nodes
- nodes/*
- services/proxy
- persistentvolumes
verbs:
- get
- list
---
apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
name: arena
namespace: dev1
rules:
- apiGroups:
- ""
resources:
- configmaps
verbs:
- '*'
- apiGroups:
- ""
resources:
- services/proxy
- persistentvolumeclaims
- events
verbs:
- get
- list
- apiGroups:
- ""
resources:
- pods
- pods/log
- services
verbs:
- '*'
- apiGroups:
- ""
- apps
- extensions
resources:
- deployments
- replicasets
verbs:
- '*'
- apiGroups:
- kubeflow.org
resources:
- '*'
verbs:
- '*'
- apiGroups:
- batch
resources:
- jobs
verbs:
- '*'
为用户组dev2创建如下权限定义文件并保存为dev2_roles.yaml:
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: arena-topnode
rules:
- apiGroups:
- ""
resources:
- pods
- services
- deployments
- nodes
- nodes/*
- services/proxy
- persistentvolumes
verbs:
- get
- list
---
apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
name: arena
namespace: dev2
rules:
- apiGroups:
- ""
resources:
- configmaps
verbs:
- '*'
- apiGroups:
- ""
resources:
- services/proxy
- persistentvolumeclaims
- events
verbs:
- get
- list
- apiGroups:
- ""
resources:
- pods
- pods/log
- services
verbs:
- '*'
- apiGroups:
- ""
- apps
- extensions
resources:
- deployments
- replicasets
verbs:
- '*'
- apiGroups:
- kubeflow.org
resources:
- '*'
verbs:
- '*'
- apiGroups:
- batch
resources:
- jobs
verbs:
- '*'
集群管理员执行以下命令,使之在ACK集群中生效。
kubectl apply -f dev1_roles.yaml
kubectl apply -f dev2_roles.yaml
预期输出如下:
$ kubectl apply -f dev1_roles.yaml
clusterrole.rbac.authorization.k8s.io/arena-topnode created
role.rbac.authorization.k8s.io/arena created
$ kubectl apply -f dev2_roles.yaml
clusterrole.rbac.authorization.k8s.io/arena-topnode unchanged
role.rbac.authorization.k8s.io/arena created
集群管理员可以通过以下命令查看集群中不同Namespace下的角色。
kubectl get role -n dev1
kubectl get role -n dev2
预期输出如下:
$ kubectl get role -n dev1
NAME CREATED AT
arena 2024-09-14T08:25:34Z
$ kubectl get role -n dev2
NAME CREATED AT
arena 2024-09-14T08:25:39Z
为用户配置在集群内的权限(赋权)。
组的角色创建完成后,我们需要给用户绑定这个角色,使之作用在组里的成员上,即赋权给用户。集群管理员通过将组(Namespace)内的某些角色(Role)与用户(ServiceAccount)进行绑定,来为每位用户在组内赋权。
通过角色绑定,集群管理员可以为用户赋予多个组内的角色权限。这既包括用户所属的用户组的组内权限,也包括其他组内的权限。这样集群管理员就可以动态地管理任何用户在任何组内的权限,只需要更新用户与角色的对应关系即可。
ACK中通过定义RoleBinding和ClusterRoleBinding对象来声明用户(ServiceAccount)在不同组(Namespaces)或者整个集群所有组中可以扮演的角色而获取权限。ACK中角色绑定(RoleBinding和ClusterRoleBinding)的定义方法可以参见官方的文档Using RBAC Authorization。
集群管理员以root身份登录Client机器后,为用户bob创建如下授权文件并保存为bob_rolebindings.yaml:
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: bob-arena-topnode
namespace: dev1
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: arena-topnode
subjects:
- kind: ServiceAccount
name: bob
namespace: dev1
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: bob-arena
namespace: dev1
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: Role
name: arena
subjects:
- kind: ServiceAccount
name: bob
namespace: dev1
为用户tom创建用户授权文件并保存为tom_rolebindings.yaml:
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: tom-arena-topnode
namespace: dev2
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: arena-topnode
subjects:
- kind: ServiceAccount
name: tom
namespace: dev2
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: tom-arena
namespace: dev2
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: Role
name: arena
subjects:
- kind: ServiceAccount
name: tom
namespace: dev2
执行如下命令完成用户和角色的绑定,即用户赋权。
kubectl apply -f bob_rolebindings.yaml
kubectl apply -f tom_rolebindings.yaml
预期输出:
$ kubectl apply -f bob_rolebindings.yaml
clusterrolebinding.rbac.authorization.k8s.io/bob-arena-topnode created
rolebinding.rbac.authorization.k8s.io/bob-arena created
$ kubectl apply -f tom_rolebindings.yaml
clusterrolebinding.rbac.authorization.k8s.io/tom-arena-topnode created
rolebinding.rbac.authorization.k8s.io/tom-arena created
集群管理员通过以下命令查看集群中不同Namespace下对不同用户的角色赋权情况。
kubectl get rolebinding -n dev1
kubectl get rolebinding -n dev2
预期输出如下:
$ kubectl get rolebinding -n dev1
NAME ROLE AGE
bob-arena Role/arena 34s
$ kubectl get rolebinding -n dev2
NAME ROLE AGE
tom-arena Role/arena 33s
至此,本文示例已完成了上述的前三个目标任务。
AI平台通过ACK统一管理所有集群资源。为了保证不同组和用户安全、有效地使用集群资源,需要为小组分配资源配额。AI平台会在用户提交作业时,自动检查用户有权限运行作业的组配额使用情况。如果作业需求量超过配额上限,则提交会被拒绝。
在ACK中资源配额(ResourceQuota)的作用域是命名空间(Namespace),即对应本文中的用户组。ResourceQuota支持的资源类型很多,既包括CPU、Memory,也包括Nvidia GPU这类扩展资源。ResourceQuota也能够限制一个Namespace中容器及其它Kubernetes对象的使用量。有关更详细的说明,请参见Resource Quotas。
根据目标四中的描述,本文示例按照组划分当前集群的GPU、CPU、MEM等资源。示例假设划分的配置如数据配置表所示。本文示例将分配组dev1一张GPU卡,不划分CPU和MEM,即可以使用整个集群的CPU和MEM。分配组dev2两张GPU卡,八核CPU和60 GiB MEM。具体的操作步骤如下:
集群管理员登录Client机器后,为用户组dev1创建如下资源配额文件并保存为dev1_quota.yaml
apiVersion: v1
kind: ResourceQuota
metadata:
name: dev1-compute-resources
namespace: dev1
spec:
hard:
requests.cpu: "10"
requests.memory: 10Gi
limits.cpu: "15"
limits.memory: 20Gi
requests.nvidia.com/gpu: 2
为用户组dev2创建如下资源配置文件并保存为dev2_quota.yaml:
apiVersion: v1
kind: ResourceQuota
metadata:
name: dev2-compute-resources
namespace: dev2
spec:
hard:
requests.nvidia.com/gpu: 2
执行以下命令使之在集群中生效。
kubectl apply -f dev1_quota.yaml
kubectl apply -f dev2_quota.yaml
创建后,集群管理员可以通过以下命令查看ResourceQuota是否生效,并可以看到定义的配额以及组内已经分配掉的资源。
# 查看组dev1下的资源配额。
kubectl get resourcequotas -n dev1
# 查看组dev2下的资源配额。
kubectl get resourcequotas -n dev2
# 查看组dev1资源配额的使用情况。
kubectl describe resourcequotas dev1-compute-resources -n dev1
# 查看组dev2资源配额的使用情况。
kubectl describe resourcequotas dev2-compute-resources -n dev2
预期输出:
$ kubectl get resourcequotas -n dev1
NAME AGE REQUEST LIMIT
dev1-compute-resources 9s requests.cpu: 0/10, requests.memory: 0/10Gi, requests.nvidia.com/gpu: 0/2 limits.cpu: 0/15, limits.memory: 0/20Gi
$ kubectl get resourcequotas -n dev2
NAME AGE REQUEST LIMIT
dev2-compute-resources 10s requests.nvidia.com/gpu: 0/2
$ kubectl describe resourcequotas dev1-compute-resources -n dev1
Name: dev1-compute-resources
Namespace: dev1
Resource Used Hard
-------- ---- ----
limits.cpu 0 15
limits.memory 0 20Gi
requests.cpu 0 10
requests.memory 0 10Gi
requests.nvidia.com/gpu 0 2
$ kubectl describe resourcequotas dev2-compute-resources -n dev2
Name: dev2-compute-resources
Namespace: dev2
Resource Used Hard
-------- ---- ----
requests.nvidia.com/gpu 0 2
至此,本文完成了上述的目标四的按照组划分ACK集群计算资源。
根据用户组织内对数据共享的控制规则,可以为AI平台内的组和用户分别配置带有相应权限控制的数据卷挂载,方便用户间安全地共享数据。
本文示例目标五需要创建两类共享数据卷。一类用于存放全局的共享数据,所有组内成员都可以访问和使用,另一类仅仅用于各个小组内共享。本文假设共享数据卷的需求如数据配置表所示。四个数据卷dev1-public、dev2-public、department1-public-dev1、department1-public-dev2中的department1-public-dev1和department1-public-dev2指向NAS盘的同一个目录,组dev1和dev2共享这一份数据。dev1-public、dev2-public分别指向组dev1和组dev2所属NAS盘的不同目录,组dev1 、dev2独享这份数据。具体操作如下:
创建NAS实例。
配置ACK集群的存储卷(PV)和存储声明(PVC)。
创建PV。
分别创建4个PV。有关创建PV的具体操作步骤,请参见创建PV。department1-public-dev1和department1-public-dev2是用于dev1和dev2两组分别共享部门department1的数据。dev1-public和dev2-public是用于dev1和dev2各自组内共享数据。创建PV的参数配置如下图所示。
设置挂载点时,选择上一步骤创建NAS实例时创建的挂载点。
创建PVC。
使用上一步创建的PV,分别创建PVC。有关创建PVC的具体操作步骤,请参见创建PVC。
完成创建PVC后,可以看到在命名空间dev1下给dev1组分配部门和小组两级共享的NAS数据卷:department1-public-dev1和dev1-public。在命名空间dev2下给dev2组分配部门和小组两级共享的NAS数据卷:department1-public-dev2和dev2-public。
检查数据卷的配置。
集群管理员以root身份登录Client机器,执行以下命令查看为不同组分配的NAS数据情况。
# 查看组dev1可以使用的数据卷。
arena data list -n dev1
# 查看组dev2可以使用的数据卷。
arena data list -n dev2
预期输出:
至此,本文已经完成了所有目标。接下来本文将会以bob和tom账户进行登录使用Arena。
用户bob
登录Client机器,执行以下命令查看当前可用的共享数据卷。
# 使用bob账号登录Client机器
ssh bob@39.98.xxx.xx
# 通过arena data list查看当前用户可用共享数据卷。
arena data list
预期输出:
执行以下命令提交一个需要1张GPU卡的训练作业。
arena submit tf \
--name=tf-git-bob-01 \
--gpus=1 \
--image=tensorflow/tensorflow:1.5.0-devel-gpu \
--sync-mode=git \
--sync-source=https://code.aliyun.com/xiaozhou/tensorflow-sample-code.git \
"python code/tensorflow-sample-code/tfjob/docker/mnist/main.py --max_steps 10000 --data_dir=code/tensorflow-sample-code/data"
执行以下命令列出当前用户提交的作业。
arena list
预期输出:
执行以下命令再提交一个使用一张GPU卡的训练作业。
arena submit tf \
--name=tf-git-bob-02 \
--gpus=1 \
--image=tensorflow/tensorflow:1.5.0-devel-gpu \
--sync-mode=git \
--sync-source=https://code.aliyun.com/xiaozhou/tensorflow-sample-code.git \
"python code/tensorflow-sample-code/tfjob/docker/mnist/main.py --max_steps 10000 --data_dir=code/tensorflow-sample-code/data"
由于本文示例只给dev1组分配了一张GPU卡,所以预期这个作业不会被调度启动。
可以看到,虽然整个集群还有剩余资源,但是由于bob所在的组只被分配了一张GPU卡资源,并且当前已经有了一个作业占用了资源,所以bob后续的提交的作业就会被暂停。
用户tom
执行以下命令登录Client机器,查看当前可用的共享数据卷。
# 使用tom账号登录Client机器。
ssh tom@39.98.xx.xx
# 通过arena data list查看当前用户可用共享数据卷。
arena data list
预期输出:
执行以下命令列出当前用户提交的作业。
arena list
此时看不到bob提交的作业。
执行以下命令提交一个需要1张GPU卡的训练作业。
arena submit tf \
--name=tf-git-tom-01 \
--gpus=1 \
--chief-cpu=2 \
--chief-memory=10Gi \
--image=tensorflow/tensorflow:1.5.0-devel-gpu \
--sync-mode=git \
--sync-source=https://code.aliyun.com/xiaozhou/tensorflow-sample-code.git \
"python code/tensorflow-sample-code/tfjob/docker/mnist/main.py --max_steps 10000 --data_dir=code/tensorflow-sample-code/data"
由于示例分配了组dev2的GPU、CPU、MEM资源,因此在dev2组里的用户提交作业的时候需要明确指定GPU、CPU、MEM的使用资源。
执行以下命令再次提交一个需要1张GPU卡的训练作业。
arena submit tf \
--name=tf-git-tom-02 \
--gpus=1 \
--chief-cpu=2 \
--chief-memory=10Gi \
--image=tensorflow/tensorflow:1.5.0-devel-gpu \
--sync-mode=git \
--sync-source=https://code.aliyun.com/xiaozhou/tensorflow-sample-code.git \
"python code/tensorflow-sample-code/tfjob/docker/mnist/main.py --max_steps 10000 --data_dir=code/tensorflow-sample-code/data"
执行以下命令列出当前用户提交的作业。
arena list
预期输出:
从上述操作可以看到,目前分别位于两个组的用户bob、tom可以通过自己的账号登录Client机器独立地使用Arena ,并通过Arena查看和使用用户当前所在组可访问的存储资源和计算资源,以及管理各自的作业。