借助阿里云在亚洲加速迈向成功
一站式安全合规咨询服务
MLPS 2.0 一站式合规解决方案
依托我们的网络进军中国市场
提升面向互联网应用的性能和安全性
保障您的中国业务安全无忧
通过强大的数据安全框架保护您的数据资产
申请 ICP 备案的流程解读和咨询服务
面向大数据建设、管理及应用的全域解决方案
企业内大数据建设、管理和应用的一站式解决方案
将您的采购和销售置于同一企业级全渠道数字平台上
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
快速搭建在线教育平台
提供域名注册、分析和保护服务
云原生 Kubernetes 容器化应用运行环境
以 Kubernetes 为使用界面的容器服务产品,提供符合容器规范的算力资源
安全的镜像托管服务,支持全生命周期管理
多集群环境下微服务应用流量统一管理
提供任意基础设施上容器集群的统一管控,助您轻松管控分布式云场景
高弹性、高可靠的企业级无服务器 Kubernetes 容器产品
敏捷安全的 Serverless 容器运行服务
为虚拟机和容器提供高可靠性、高性能、低时延的块存储服务
一款海量、安全、低成本、高可靠的云存储服务
可靠、弹性、高性能、多共享的文件存储服务
全托管、可扩展的并行文件系统服务。
全托管的 NoSQL 结构化数据实时存储服务
可抵扣多种存储产品的容量包,兼具灵活性和长期成本优化
让您的应用跨不同可用区资源自动分配访问量
随时绑定和解绑 VPC ECS
云网络公网、跨域流量统一计费
高性价比,可抵扣按流量计费的流量费用
创建云上隔离的网络,在专有环境中运行资源
在 VPC 环境下构建公网流量的出入口
具备网络状态可视化、故障智能诊断能力的自助式网络运维服务。
安全便捷的云上服务专属连接
基于阿里云专有网络的私有 DNS 解析服务
保障在线业务不受大流量 DDoS 攻击影响
系统运维和安全审计管控平台
业务上云的第一个网络安全基础设施
集零信任内网访问、办公数据保护、终端管理等多功能于一体的办公安全管控平台
提供7X24小时安全运维平台
防御常见 Web 攻击,缓解 HTTP 泛洪攻击
实现全站 HTTPS,呈现可信的 WEB 访问
为云上应用提供符合行业标准和密码算法等级的数据加解密、签名验签和数据认证能力
一款发现、分类和保护敏感数据的安全服务
创建、控制和管理您的加密密钥
快速提高应用高可用能力服务
围绕应用和微服务的 PaaS 平台
兼容主流开源微服务生态的一站式平台
多集群环境下微服务应用流量统一管理
Super MySQL 和 PostgreSQL,高度兼容 Oracle 语法
全托管 MySQL、PostgreSQL、SQL Server、MariaDB
兼容 Redis® 的缓存和KV数据库
兼容Apache Cassandra、Apache HBase、Elasticsearch、OpenTSDB 等多种开源接口
文档型数据库,支持副本集和分片架构
100%兼容 Apache HBase 并深度扩展,稳定、易用、低成本的NoSQL数据库。
低成本、高可用、可弹性伸缩的在线时序数据库服务
专为搜索和分析而设计,成本效益达到开源的两倍,采用最新的企业级AI搜索和AI助手功能。
一款兼容PostgreSQL协议的实时交互式分析产品
一种快速、完全托管的 TB/PB 级数据仓库
基于 Flink 为大数据行业提供解决方案
基于Qwen和其他热门模型的一站式生成式AI平台,可构建了解您业务的智能应用程
一站式机器学习平台,满足数据挖掘分析需求
高性能向量检索服务,提供低代码API和高成本效益
帮助您的应用快速构建高质量的个性化推荐服务能力
提供定制化的高品质机器翻译服务
全面的AI计算平台,满足大模型训练等高性能AI计算的算力和性能需求
具备智能会话能力的会话机器人
基于机器学习的智能图像搜索产品
基于阿里云深度学习技术,为用户提供图像分割、视频分割、文字识别等离线SDK能力,支持Android、iOS不同的适用终端。
语音识别、语音合成服务以及自学习平台
一站式智能搜索业务开发平台
助力金融企业快速搭建超低时延、高质量、稳定的行情数据服务
帮助企业快速测算和分析企业的碳排放和产品碳足迹
企业工作流程自动化,全面提高效率
金融级云原生分布式架构的一站式高可用应用研发、运维平台
eKYC 数字远程在线解决方案
可智能检测、大数据驱动的综合性反洗钱 (AML) 解决方案
阿里云APM类监控产品
实时云监控服务,确保应用及服务器平稳运行
为系统运维人员管理云基础架构提供全方位服务的云上自动化运维平台
面向您的云资源的风险检测服务
提升分布式环境下的诊断效率
日志类数据一站式服务,无需开发就能部署
ECS 预留实例
让弹性计算产品的成本和灵活性达到最佳平衡的付费方式。云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势自带IP上云
自带公网 IP 地址上云全球网络互联
端到端的软件定义网络解决方案,可推动跨国企业的业务发展全球应用加速
提升面向互联网应用的性能和安全性全球互联网接入
将IDC网关迁移到云端云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势金融科技云数据库解决方案
利用专为金融科技而设的云原生数据库解决方案游戏行业云数据库解决方案
提供多种成熟架构,解决所有数据问题Oracle 数据库迁移
将 Oracle 数据库顺利迁移到云原生数据库数据库迁移
加速迁移您的数据到阿里云阿里云上的数据湖
实时存储、管理和分析各种规模和类型的数据数码信贷
利用大数据和 AI 降低信贷和黑灰产风险面向企业数据技术的大数据咨询服务
帮助企业实现数据现代化并规划其数字化未来人工智能对话服务
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人EasyDispatch 现场服务管理
为现场服务调度提供实时AI决策支持在线教育
快速搭建在线教育平台窄带高清 (HD) 转码
带宽成本降低高达 30%广电级大型赛事直播
为全球观众实时直播大型赛事,视频播放流畅不卡顿直播电商
快速轻松地搭建一站式直播购物平台用于供应链规划的Alibaba Dchain
构建和管理敏捷、智能且经济高效的供应链云胸牌
针对赛事运营的创新型凭证数字服务数字门店中的云 POS 解决方案
将所有操作整合到一个云 POS 系统中元宇宙
元宇宙是下一代互联网人工智能 (AI) 加速
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速DevOps
快速、安全地最大限度提高您的DevOps优势数据迁移解决方案
加速迁移您的数据到阿里云企业 IT 治理
在阿里云上构建高效可控的云环境基于日志管理的AIOps
登录到带有智能化日志管理解决方案的 AIOps 环境备份与存档
数据备份、数据存档和灾难恢复用阿里云金融服务加快创新
在云端开展业务,提升客户满意度
为全球资本市场提供安全、准确和数字化的客户体验
利用专为金融科技而设的云原生数据库解决方案
利用大数据和 AI 降低信贷和黑灰产风险
建立快速、安全的全球外汇交易平台
新零售时代下,实现传统零售业转型
利用云服务处理流量波动问题,扩展业务运营、降低成本
快速轻松地搭建一站式直播购物平台
面向大数据建设、管理及应用的全域解决方案
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
以数字化媒体旅程为当今的媒体市场准备就绪您的内容
带宽成本降低高达 30%
快速轻松地搭建一站式直播购物平台
为全球观众实时直播大型赛事,视频播放流畅不卡顿
使用阿里云弹性高性能计算 E-HPC 将本地渲染农场连接到云端
构建发现服务,帮助客户找到最合适的内容
保护您的媒体存档安全
通过统一的数据驱动平台提供一致的全生命周期客户服务
在钉钉上打造一个多功能的电信和数字生活平台
在线存储、共享和管理照片与文件
提供全渠道的无缝客户体验
面向中小型企业,为独立软件供应商提供可靠的IT服务
打造最快途径,助力您的新云业务扬帆起航
先进的SD-WAN平台,可实现WAN连接、实时优化并降低WAN成本
通过自动化和流程标准化实现快速事件响应
针对关键网络安全威胁提供集中可见性并进行智能安全分析
提供大容量、可靠且高度安全的企业文件传输
用智能技术数字化体育赛事
基于人工智能的低成本体育广播服务
专业的广播转码及信号分配管理服务
基于云的音视频内容引入、编辑和分发服务
在虚拟场馆中模拟关键运营任务
针对赛事运营的创新型凭证数字服务
智能和交互式赛事指南
轻松管理云端背包单元的绑定直播流
通过数据加强您的营销工作
元宇宙是下一代互联网
利用生成式 AI 加速创新,创造新的业务佳绩
阿里云高性能开源大模型
借助AI轻松解锁和提炼文档中的知识
通过AI驱动的语音转文本服务获取洞察
探索阿里云人工智能和数据智能的所有功能、新优惠和最新产品
该体验中心提供广泛的用例和产品帮助文档,助您开始使用阿里云 AI 产品和浏览您的业务数据。
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速
元宇宙是下一代互联网
构建发现服务,帮助客户找到最合适的内容
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
加速迁移您的数据到阿里云
在阿里云上建立一个安全且易扩容的环境,助力高效率且高成本效益的上云旅程
迁移到完全托管的云数据库
将 Oracle 数据库顺利迁移到云原生数据库
自带公网 IP 地址上云
利用阿里云强大的安全工具集,保障业务安全、应用程序安全、数据安全、基础设施安全和帐户安全
保护、备份和还原您的云端数据资产
MLPS 2.0 一站式合规解决方案
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
实现对 CloudOps、DevOps、SecOps、AIOps 和 FinOps 的高效、安全和透明的管理
构建您的原生云环境并高效管理集群
快速、安全地最大限度提高您的DevOps优势
实施细粒度安全控制
提供运维效率和总体系统安全性
实时分析您的云消耗并实现节约
实时存储、管理和分析各种规模和类型的数据
登录到带有智能化日志管理解决方案的 AIOps 环境
帮助企业实现数据现代化并规划其数字化未来
帮助零售商快速规划数字化之旅
将全球知名的 CRM 平台引入中国
在线存储、共享和管理照片与文件
构建、部署和管理高可用、高可靠、高弹性的应用程序
快速、安全地最大限度提高您的DevOps优势
将您的采购和销售置于同一企业级全渠道数字平台上
企业内大数据建设、管理和应用的一站式解决方案
帮助企业简化 IT 架构、实现商业价值、加速数字化转型的步伐
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
快速搜集、处理、分析联网设备产生的数据
0.0.201
通过开启容器服务报警管理功能,您可以统一管理容器的报警,包括容器服务异常事件报警、集群相关基础资源的关键指标报警、集群核心组件及集群中应用的指标报警等。您还可以通过CRD方式修改集群中默认创建的报警规则,及时感知集群中异常变化。
仅支持ACK托管集群和ACK专有集群。
ACK Serverless集群需要在对应的监控实例中开启报警,请参见创建Prometheus告警规则。
已开通SLS日志服务云产品,需要登录日志服务控制台,根据页面提示开通日志服务。
已开通Prometheus监控服务,详情请参见开通方式。
报警功能是通过日志服务SLS、阿里云Prometheus和云监控发送 ,其中各监控服务发送的短信、邮件等通知可能产生额外资费。相关计费如下。在开启报警功能之前,您可以根据默认报警规则模板确认每个报警项的来源,并开通所需的服务。
发送报警源 | 配置要求 | 计费详情 |
发送报警源 | 配置要求 | 计费详情 |
日志服务 | 开启事件监控;启用报警管理功能时,事件监控会默认开启。 | |
阿里云Prometheus | 为集群配置使用阿里云Prometheus监控。 | 免费 |
云监控 |
开启报警管理功能后,您可以为集群内指定的资源设置指标报警,并在异常情况发生时自动接收告警通知。这将帮助您更高效地管理和维护集群,确保服务的稳定运行。相关资源报警详情请参见默认报警规则模板。
您可以选择在已有集群中开启报警配置,或在创建新集群时启用报警配置。
当您已有集群,可以根据以下步骤开启。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择运维管理 > 报警配置。
在报警配置页面,单击开始安装,控制台会自动检查条件,进行安装、升级组件。
安装升级完成后,进入报警配置页面配置报警信息。
页签 | 说明 |
报警规则管理 | 打开启动状态开启对应报警规则集,单击编辑通知对象可设置关联的通知对象。 |
报警历史 | 目前可查看最近1天内发送的最新100条历史记录。单击报警规则列下的链接,可以跳转到对应监控系统中查看详细规则配置;单击排查现场,可以快速定位到异常发生的资源页面(异常事件、指标异常的资源)。 |
联系人管理 | 对联系人进行管理,可创建、编辑或删除联系人。 联系方式可以通过短信、邮箱和机器人类型进行设置,需先在云监控控制台中报警服务 > 报警联系人验证,以便接收报警信息。还支持同步联系人,如果验证信息过期,可在云监控中删除对应联系人,并刷新联系人页面。通知对象为机器人类型设置请参见钉钉机器人、企业微信机器人和飞书机器人。 |
联系人分组管理 | 对联系人分组您进行管理,可创建、编辑或删除联系人分组。当无联系人分组时,控制台会从您的阿里云账号注册信息中同步创建一个默认联系人分组。 |
在创建集群的组件配置页面,勾选报警配置右侧使用默认报警模板配置报警,并选择报警通知联系人分组。具体操作,请参见创建ACK托管集群。
创建集群时开启报警配置后,系统将会开启默认报警规则,并默认发送报警通知到默认的联系人分组,您也可以自定义修改报警联系人或报警联系组。
ACK专有集群需要先为Worker RAM角色授权,再开启默认报警规则。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择集群信息。
在集群信息页面,在集群资源区域,复制Worker RAM角色右侧的名称,并单击链接进入RAM访问控制控制台为该Worker RAM角色授权。
创建如下自定义权限策略。请参见通过脚本编辑模式创建自定义权限策略。
{
"Action": [
"log:*",
"arms:*",
"cms:*",
"cs:UpdateContactGroup"
],
"Resource": [
"*"
],
"Effect": "Allow"
}
在角色页面,搜索定位该Worker RAM角色,为其授予以上创建的自定义权限策略。具体操作,请参见方式一:在RAM角色页面为RAM角色授权。
通过日志查看报警功能访问权限是否已配置。
在目标集群管理页左侧导航栏,选择工作负载 > 无状态。
选择命名空间为kube-system,单击无状态应用列表中alicloud-monitor-controller的名称链接。
单击日志页签,可看到授权成功的Pod日志。
在目标集群页左侧导航栏,选择运维管理 > 报警配置。
在报警配置页面,配置如下报警信息。
页签 | 说明 |
报警规则管理 | 打开启动状态开启对应报警规则集,单击编辑通知对象可设置关联的通知对象。 |
报警历史 | 目前可查看最近1天内发送的最新100条历史记录。单击报警规则列下的链接,可以跳转到对应监控系统中查看详细规则配置;单击排查现场,可以快速定位到异常发生的资源页面(异常事件、指标异常的资源)。 |
联系人管理 | 对联系人进行管理,可创建、编辑或删除联系人。 联系方式可以通过短信、邮箱和机器人类型进行设置,需先在云监控控制台中报警服务 > 报警联系人验证,以便接收报警信息。还支持同步联系人,如果验证信息过期,可在云监控中删除对应联系人,并刷新联系人页面。通知对象为机器人类型设置请参见钉钉机器人、企业微信机器人和飞书机器人。 |
联系人分组管理 | 对联系人分组您进行管理,可创建、编辑或删除联系人分组。当无联系人分组时,控制台会从您的阿里云账号注册信息中同步创建一个默认联系人分组。 |
报警配置功能开启后,默认会在kube-system命名空间下创建一个名为AckAlertRule类型的CRD资源配置,包含默认报警规则模板。您可以通过修改此CRD资源来修改默认报警规则,以配置符合要求的容器服务报警规则。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择运维管理 > 报警配置。
在报警规则管理页签,单击右上角编辑报警配置,然后单击目标规则列右侧操作列下的YAML,即可查看当前集群中的AckAlertRule资源配置。
参考默认报警规则模板说明,修改示例YAML文件。
报警规则配置的YAML文件示例如下:
apiVersion: alert.alibabacloud.com/v1beta1
kind: AckAlertRule
metadata:
name: default
spec:
groups:
# 以下是一个集群事件报警规则配置样例。
- name: pod-exceptions # 报警规则分组名,对应报警模板中的Group_Name字段。
rules:
- name: pod-oom # 报警规则名。
type: event # 报警规则类型(Rule_Type),枚举值为event(事件类型)、metric-cms(云监控指标类型)。
expression: sls.app.ack.pod.oom # 报警规则表达式,当规则类型为event时,表达式的值为本文默认报警规则模板中Rule_Expression_Id值。
enable: enable # 报警规则开启状态,枚举值为enable、disable。
- name: pod-failed
type: event
expression: sls.app.ack.pod.failed
enable: enable
# 以下是一个集群基础资源报警规则配置样例。
- name: res-exceptions # 报警规则分组名,对应报警模板中的Group_Name字段。
rules:
- name: node_cpu_util_high # 报警规则名。
type: metric-cms # 报警规则类型(Rule_Type),枚举值为event(事件类型)、metric-cms(云监控指标类型)。
expression: cms.host.cpu.utilization # 报警规则表达式,当规则类型为metric-cms时,表达式的值为本文默认报警规则模板中Rule_Expression_Id值。
contactGroups: # 报警规则映射的联系人分组配置,由ACK控制台生成,同一个账号下联系人相同,可在多集群中复用。
enable: enable # 报警规则开启状态,枚举值为enable、disable。
thresholds: # 报警规则阈值,详情见文档如何更改报警规则阈值部分。
- key: CMS_ESCALATIONS_CRITICAL_Threshold
unit: percent
value: '1'
由默认报警规则模板集可知集群资源异常报警规则集的Rule_Type为metric-cms,同步自云监控的基础资源报警规则。本示例通过在集群节点-CPU使用率规则的报警规则集对应的CRD中,增加thresholds
参数,配置基础监控报警规则的阈值、重试判断次数以及静默期配置。
apiVersion: alert.alibabacloud.com/v1beta1
kind: AckAlertRule
metadata:
name: default
spec:
groups:
# 以下是一个集群基础资源报警规则配置样例。
- name: res-exceptions # 报警规则分组名,对应报警模板中的Group_Name字段。
rules:
- name: node_cpu_util_high # 报警规则名。
type: metric-cms # 报警规则类型(Rule_Type),枚举值为event(事件类型)、metric-cms(云监控指标类型)。
expression: cms.host.cpu.utilization # 报警规则表达式,当规则类型为metric-cms时,表达式的值为本文默认报警规则模板中Rule_Expression_Id值。
contactGroups: # 报警规则映射的联系人分组配置,由ACK控制台生成,同一个账号下联系人相同,可在多集群中复用。
enable: enable # 报警规则开启状态,枚举值为enable、disable。
thresholds: # 报警规则阈值,更多信息,请参见如何通过CRD配置报警规则。
- key: CMS_ESCALATIONS_CRITICAL_Threshold
unit: percent
value: '1'
- key: CMS_ESCALATIONS_CRITICAL_Times
value: '3'
- key: CMS_RULE_SILENCE_SEC
value: '900'
参数名 | 是否必选 | 说明 | 默认值 |
参数名 | 是否必选 | 说明 | 默认值 |
| 必选 | 报警配置阈值。未配置时规则将同步失败并关闭。
| 根据默认报警模板配置而定。 |
| 可选 | 云监控规则重试判断次数。未配置时取默认值。 | 3 |
| 可选 | 云监控持续发送异常触发规则时,初次上报报警后静默期时长(单位:秒),防止过于频繁报警。未配置时取默认值。 | 900 |
以下为默认创建的报警规则模板。
Error事件集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
Error事件 | 集群中所有Error Level异常事件触发该报警。 | 日志服务 | event | error-event | sls.app.ack.error |
Warn事件集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
Warn事件 | 集群中关键Warn Level异常事件触发该报警,排除部分可忽略事件。 | 日志服务 | event | warn-event | sls.app.ack.warn |
集群核心组件异常报警规则集(ACK托管集群)
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
集群API Server可用性异常 | 当API Server出现可用性问题时触发报警,可能导致集群管理功能受限。 | 阿里云Prometheus | metric-prometheus | apiserver-unhealthy | prom.apiserver.notHealthy.down |
集群etcd可用性异常 | 当etcd出现不可用将影响整个集群的状态。 | 阿里云Prometheus | metric-prometheus | etcd-unhealthy | prom.etcd.notHealthy.down |
集群kube-scheduler可用性异常 | 负责Pod调度,调度器不可用可能导致新Pod无法正常启动。 | 阿里云Prometheus | metric-prometheus | scheduler-unhealthy | prom.scheduler.notHealthy.down |
集群KCM可用性异常 | 管理控制循环,异常会影响集群状态自动修复和资源调整机制。 | 阿里云Prometheus | metric-prometheus | kcm-unhealthy | prom.kcm.notHealthy.down |
集群cloud-controller-manager可用性异常 | 管理外部云服务组件的生命周期,异常可能影响服务的动态调整功能。 | 阿里云Prometheus | metric-prometheus | ccm-unhealthy | prom.ccm.notHealthy.down |
集群CoreDNS可用性异常-请求跌零 | CoreDNS是集群的DNS服务,异常将影响服务发现和域名解析。 | 阿里云Prometheus | metric-prometheus | coredns-unhealthy-requestdown | prom.coredns.notHealthy.requestdown |
集群CoreDNS可用性异常-panic异常 | 当CoreDNS出现panic错误时触发,需立即分析日志进行诊断。 | 阿里云Prometheus | metric-prometheus | coredns-unhealthy-panic | prom.coredns.notHealthy.panic |
集群Ingress错误请求率高 | Ingress控制器处理的HTTP请求错误率较高,可能影响服务的可访问性。 | 阿里云Prometheus | metric-prometheus | ingress-err-request | prom.ingress.request.errorRateHigh |
集群Ingress Controller证书即将过期 | SSL证书到期会导致HTTPS请求失败,需提前更新证书。 | 阿里云Prometheus | metric-prometheus | ingress-ssl-expire | prom.ingress.ssl.expire |
Pod Pending同时累计数>1000 | 若集群中有过多Pod持续处于Pending状态,可能是资源不足或调度策略不合理。 | 阿里云Prometheus | metric-prometheus | pod-pending-accumulate | prom.pod.pending.accumulate |
集群API Server Mutating Admission Webhook RT高 | 变更型Admission Webhook响应过慢会影响资源创建和变更效率。 | 阿里云Prometheus | metric-prometheus | apiserver-admit-rt-high | prom.apiserver.mutating.webhook.rt.high |
集群API Server Validating Admission Webhook RT高 | 验证型Admission Webhook响应过慢可能导致配置变更不及时。 | 阿里云Prometheus | metric-prometheus | apiserver-validate-rt-high | prom.apiserver.validation.webhook.rt.high |
集群ControlPlane组件发生OOM | 集群核心组件内存溢出,需要针对异常进行详细排查,避免服务瘫痪。 | 日志服务 | event | ack-controlplane-oom | sls.app.ack.controlplane.pod.oom |
集群节点池运维事件报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
节点自愈失败 | 当节点自愈过程出现失败,需立即了解原因并修复,确保高可用。 | 日志服务 | event | node-repair_failed | sls.app.ack.rc.node_repair_failed |
节点CVE修复失败 | 若重要的CVE修复失败,集群安全可能受影响,需紧急评估并修复。 | 日志服务 | event | nodepool-cve-fix-failed | sls.app.ack.rc.node_vulnerability_fix_failed |
节点池CVE修复成功 | 成功应用CVE修复后可降低已知漏洞的安全风险。 | 日志服务 | event | nodepool-cve-fix-succ | sls.app.ack.rc.node_vulnerability_fix_succeed |
节点池CVE自动修复已忽略 | 自动修复被忽略,可能由于兼容性或特定配置引起,需确认安全策略是否合理。 | 日志服务 | event | nodepool-cve-fix-skip | sls.app.ack.rc.node_vulnerability_fix_skipped |
节点池kubelet参数配置失败 | kubelet配置未能成功更新,可能影响节点性能及资源调度。 | 日志服务 | event | nodepool-kubelet-cfg-failed | sls.app.ack.rc.node_kubelet_config_failed |
节点池kubelet参数配置成功 | 成功应用新的kubelet配置,需确认配置生效并符合预期。 | 日志服务 | event | nodepool-kubelet-config-succ | sls.app.ack.rc.node_kubelet_config_succeed |
节点池kubelet升级失败 | 可能影响集群稳定性和功能性,需确认升级过程和配置。 | 日志服务 | event | nodepool-k-c-upgrade-failed | sls.app.ack.rc.node_kubelet_config_upgrade_failed |
节点池kubelet升级成功 | 确认升级成功后,确保kubelet版本符合集群和应用需求。 | 日志服务 | event | nodepool-k-c-upgrade-succ | sls.app.ack.rc.kubelet_upgrade_succeed |
节点池runtime升级成功 | 节点池中容器运行时升级成功。 | 日志服务 | event | nodepool-runtime-upgrade-succ | sls.app.ack.rc.runtime_upgrade_succeed |
节点池runtime升级失败 | 节点池中容器运行时升级失败。 | 日志服务 | event | nodepool-runtime-upgrade-fail | sls.app.ack.rc.runtime_upgrade_failed |
节点池OS镜像升级成功 | 节点池中的操作系统镜像升级成功。 | 日志服务 | event | nodepool-os-upgrade-succ | sls.app.ack.rc.os_image_upgrade_succeed |
节点池OS镜像升级失败 | 节点池中的操作系统镜像升级失败。 | 日志服务 | event | nodepool-os-upgrade-failed | sls.app.ack.rc.os_image_upgrade_failed |
灵骏节点池配置变更成功 | 灵骏节点池的配置变更成功。 | 日志服务 | event | nodepool-lingjun-config-succ | sls.app.ack.rc.lingjun_configuration_apply_succeed |
灵骏节点池配置变更失败 | 灵骏节点池的配置变更失败。 | 日志服务 | event | nodepool-lingjun-cfg-failed | sls.app.ack.rc.lingjun_configuration_apply_failed |
集群节点异常报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
集群节点docker进程异常 | 集群中节点Dockerd或Containerd运行时异常。 | 日志服务 | event | docker-hang | sls.app.ack.docker.hang |
集群驱逐事件 | 集群中发生驱逐事件。 | 日志服务 | event | eviction-event | sls.app.ack.eviction |
集群GPU的XID错误事件 | 集群中GPU XID异常事件。 | 日志服务 | event | gpu-xid-error | sls.app.ack.gpu.xid_error |
集群节点下线 | 集群中节点下线。 | 日志服务 | event | node-down | sls.app.ack.node.down |
集群节点重启 | 集群中节点重启。 | 日志服务 | event | node-restart | sls.app.ack.node.restart |
集群节点时间服务异常 | 集群中节点时间同步系统服务异常。 | 日志服务 | event | node-ntp-down | sls.app.ack.ntp.down |
集群节点PLEG异常 | 集群中节点PLEG异常。 | 日志服务 | event | node-pleg-error | sls.app.ack.node.pleg_error |
集群节点进程异常 | 集群中节点进程数异常。 | 日志服务 | event | ps-hang | sls.app.ack.ps.hang |
集群节点文件句柄过多 | 节点上的文件句柄数量过多。 | 日志服务 | event | node-fd-pressure | sls.app.ack.node.fd_pressure |
集群节点进程数过多 | 集群节点进程数过多。 | 日志服务 | event | node-pid-pressure | sls.app.ack.node.pid_pressure |
删除节点失败 | 集群删除节点失败事件。请提交工单联系容器服务团队。 | 日志服务 | event | node-del-err | sls.app.ack.ccm.del_node_failed |
添加节点失败 | 集群添加节点失败事件。请提交工单联系容器服务团队。 | 日志服务 | event | node-add-err | sls.app.ack.ccm.add_node_failed |
托管节点池命令执行失败 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-run-cmd-err | sls.app.ack.nlc.run_command_fail |
托管节点池未提供任务的具体命令 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-empty-cmd | sls.app.ack.nlc.empty_task_cmd |
托管节点池出现未实现的任务模式 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-url-m-unimp | sls.app.ack.nlc.url_mode_unimpl |
托管节点池发生未知的修复操作 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-opt-no-found | sls.app.ack.nlc.op_not_found |
托管节点池销毁节点发生错误 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-des-node-err | sls.app.ack.nlc.destroy_node_fail |
托管节点池节点排水失败 | 集群托管节点池排水异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-drain-node-err | sls.app.ack.nlc.drain_node_fail |
托管节点池重启ECS未达到终态 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-restart-ecs-wait | sls.app.ack.nlc.restart_ecs_wait_fail |
托管节点池重启ECS失败 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-restart-ecs-err | sls.app.ack.nlc.restart_ecs_fail |
托管节点池重置ECS失败 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-reset-ecs-err | sls.app.ack.nlc.reset_ecs_fail |
托管节点池自愈任务失败 | 集群托管节点池异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | nlc-sel-repair-err | sls.app.ack.nlc.repair_fail |
集群资源异常报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
集群节点-CPU使用率≥85% | 集群中节点实例CPU使用率超过水位。默认值85%。 剩余资源不足15%时,可能会超过容器引擎层CPU资源预留。更多信息,请参见节点资源预留策略。这可能引起高频CPU Throttle,最终严重影响进程响应速度。请及时优化CPU使用情况或调整阈值。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | node_cpu_util_high | cms.host.cpu.utilization |
集群节点-内存使用率≥85% | 集群中节点实例内存使用率超过水位。默认值85%。 剩余资源不足15%时,若仍然使用,水位将超过容器引擎层内存资源预留。更多信息,请参见节点资源预留策略。此场景下,Kubelet将发生强制驱逐行为。请及时优化内存使用情况或调整阈值。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | node_mem_util_high | cms.host.memory.utilization |
集群节点-磁盘使用率≥85% | 集群中节点实例磁盘使用率超过水位。默认值85%。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | node_disk_util_high | cms.host.disk.utilization |
集群节点-公网流出带宽使用率≥85% | 集群中节点实例公网流出带宽使用率超过水位。默认值85%。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | node_public_net_util_high | cms.host.public.network.utilization |
集群节点-inode使用率≥85% | 集群中节点实例inode使用率超过水位。默认值85%。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | node_fs_inode_util_high | cms.host.fs.inode.utilization |
集群资源-负载均衡最大连接数使用率≥85% | 集群中负载均衡实例最大连接数超过水位。默认值85%。 说明 负载均衡实例,即API-Server、Ingress所关联的负载均衡实例。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | slb_qps_util_high | cms.slb.qps.utilization |
集群资源-负载均衡网络流出带宽使用率≥85% | 集群中负载均衡实例网络流出带宽使用率超过水位。默认值85%。 说明 负载均衡实例,即API-Server、Ingress所关联的负载均衡实例。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | slb_traff_tx_util_high | cms.slb.traffic.tx.utilization |
集群资源-负载均衡最大连接数使用率≥85% | 集群中负载均衡实例最大连接数使用率超过水位。默认值85%。 说明 负载均衡实例,即API-Server、Ingress所关联的负载均衡实例。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | slb_max_con_util_high | cms.slb.max.connection.utilization |
集群资源-负载均衡监听每秒丢失连接数持续≥1 | 集群中负载均衡实例每秒丢失连接数持续超过水位。默认值1次。 说明 负载均衡实例,即API-Server、Ingress所关联的负载均衡实例。 关于如何调整阈值,请参见配置报警规则示例。 | 云监控 | metric-cms | slb_drop_con_high | cms.slb.drop.connection |
集群节点磁盘空间不足 | 集群中节点磁盘空间不足异常事件。 | 日志服务 | event | node-disk-pressure | sls.app.ack.node.disk_pressure |
集群节点调度资源不足 | 集群中无调度资源异常事件。 | 日志服务 | event | node-res-insufficient | sls.app.ack.resource.insufficient |
集群节点IP资源不足 | 集群中IP资源不足异常事件。 | 日志服务 | event | node-ip-pressure | sls.app.ack.ip.not_enough |
磁盘容量超过水位阈值 | 集群磁盘使用量超过水位值异常。请检查您的集群磁盘水位情况。 | 日志服务 | event | disk_space_press | sls.app.ack.csi.no_enough_disk_space |
ACK管控运维通知报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
ACK集群任务通知 | 记录和告知管理层相关计划和变更情况。 | 日志服务 | event | ack-system-event-info | sls.app.ack.system_events.task.info |
ACK集群任务失败通知 | 集群操作失败时需注意并及时调查原因。 | 日志服务 | event | ack-system-event-error | sls.app.ack.system_events.task.error |
集群弹性伸缩报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
自动扩缩容-扩容节点 | 自动扩容节点以应对增加的负载请求。 | 日志服务 | event | autoscaler-scaleup | sls.app.ack.autoscaler.scaleup_group |
自动扩缩容-缩容节点 | 当负载下降时,节点自动缩容以节省资源。 | 日志服务 | event | autoscaler-scaledown | sls.app.ack.autoscaler.scaledown |
自动扩缩容-扩容超时 | 扩容过程超时可能指示资源不足或策略不当。 | 日志服务 | event | autoscaler-scaleup-timeout | sls.app.ack.autoscaler.scaleup_timeout |
自动扩缩容-缩容空节点 | 不活跃节点被识别并清理以优化资源使用。 | 日志服务 | event | autoscaler-scaledown-empty | sls.app.ack.autoscaler.scaledown_empty |
自动扩缩容-扩容节点失败 | 扩容失败需立即分析原因并调整资源策略。 | 日志服务 | event | autoscaler-up-group-failed | sls.app.ack.autoscaler.scaleup_group_failed |
自动扩缩容-集群不健康 | 扩缩容影响下集群不健康状态需迅速处理。 | 日志服务 | event | autoscaler-cluster-unhealthy | sls.app.ack.autoscaler.cluster_unhealthy |
自动扩缩容-删除长时间未启动节点 | 清理无效节点以回收资源。 | 日志服务 | event | autoscaler-del-started | sls.app.ack.autoscaler.delete_started_timeout |
自动扩缩容-删除未注册节点 | 处理冗余节点以优化集群资源。 | 日志服务 | event | autoscaler-del-unregistered | sls.app.ack.autoscaler.delete_unregistered |
自动扩缩容-缩容失败 | 缩容失败可能导致资源浪费和负载不均。 | 日志服务 | event | autoscaler-scale-down-failed | sls.app.ack.autoscaler.scaledown_failed |
自动扩缩容-删除的节点未完成排水 | 当自动扩缩容操作删除某个节点时,节点上运行的Pod未能成功驱逐或迁移。 | 日志服务 | event | autoscaler-instance-expired | sls.app.ack.autoscaler.instance_expired |
集群应用工作负载报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
Job运行失败 | 当Job任务在执行过程中失败时触发该报警。请提交工单联系容器服务团队。 | 阿里云Prometheus | metric-prometheus | job-failed | prom.job.failed |
Deployment可用副本状态异常 | 当Deployment的可用副本数量不足时触发该报警,可能导致服务不可用或部分不可用。请提交工单联系容器服务团队。 | 阿里云Prometheus | metric-prometheus | deployment-rep-err | prom.deployment.replicaError |
Daemonset副本状态异常 | 当DaemonSet的某些副本状态异常(如未能启动或崩溃)时触发该报警,影响到节点的预期行为或服务。请提交工单联系容器服务团队。 | 阿里云Prometheus | metric-prometheus | daemonset-status-err | prom.daemonset.scheduledError |
Daemonset副本调度异常 | 当DaemonSet未能正确调度一些或所有的节点时触发该报警,可能由于资源限制或调度策略不当。请提交工单联系容器服务团队。 | 阿里云Prometheus | metric-prometheus | daemonset-misscheduled | prom.daemonset.misscheduled |
集群容器副本异常报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
集群容器副本OOM | 集群容器副本Pod或其中进程出现OOM(Out of Memory)。请提交工单联系容器服务团队。 | 日志服务 | event | pod-oom | sls.app.ack.pod.oom |
集群容器副本启动失败 | 集群容器副本Pod启动失败事件(Pod Start Failed)。请提交工单联系容器服务团队。 | 日志服务 | event | pod-failed | sls.app.ack.pod.failed |
Pod状态异常 | 当Pod的状态不健康(例如Pending、Failed、Unknown等)时触发该报警。请提交工单联系容器服务团队。 | 阿里云Prometheus | metric-prometheus | pod-status-err | prom.pod.status.notHealthy |
Pod启动失败 | 当Pod频繁启动失败,进入CrashLoopBackOff状态或其他启动失败情况时触发该报警。请提交工单联系容器服务团队。 | 阿里云Prometheus | metric-prometheus | pod-crashloop | prom.pod.status.crashLooping |
集群存储异常事件报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
云盘容量少于20Gi限制 | 集群网盘固定限制,无法挂载小于20 GiB的磁盘。请检查所挂载云盘容量大小。 | 日志服务 | event | csi_invalid_size | sls.app.ack.csi.invalid_disk_size |
容器数据卷暂不支持包年包月类型云盘 | 集群网盘固定限制,无法挂载包年包月类型的云盘。请检查所挂载云盘的售卖方式。 | 日志服务 | event | csi_not_portable | sls.app.ack.csi.disk_not_portable |
挂载点正在被进程占用,卸载挂载点失败 | 资源尚未完全释放或者有未终止的活跃进程在访问该挂载点。请提交工单联系容器服务团队。 | 日志服务 | event | csi_device_busy | sls.app.ack.csi.deivce_busy |
无可用云盘 | 集群存储挂载时无可用云盘异常。请提交工单联系容器服务团队。 | 日志服务 | event | csi_no_ava_disk | sls.app.ack.csi.no_ava_disk |
云盘IOHang | 集群出现IOHang异常。请提交工单联系容器服务团队。 | 日志服务 | event | csi_disk_iohang | sls.app.ack.csi.disk_iohang |
磁盘绑定的PVC发生slowIO | 集群磁盘绑定的PVC发生slowIO异常。请提交工单联系容器服务团队。 | 日志服务 | event | csi_latency_high | sls.app.ack.csi.latency_too_high |
PersistentVolume状态异常 | 集群PV发生异常。请提交工单联系容器服务团队。 | 阿里云Prometheus | metric-prometheus | pv-failed | prom.pv.failed |
集群网络异常事件报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
VPC下存在多路由表 | 可能导致网络配置复杂化或路由冲突,需要及时优化网络结构。请提交工单联系容器服务团队。 | 日志服务 | event | ccm-vpc-multi-route-err | sls.app.ack.ccm.describe_route_tables_failed |
无可用LoadBalancer | 集群无法创建LoadBalancer事件。请提交工单联系容器服务团队。 | 日志服务 | event | slb-no-ava | sls.app.ack.ccm.no_ava_slb |
同步LoadBalancer失败 | 集群创建LoadBalancer同步失败事件。请提交工单联系容器服务团队。 | 日志服务 | event | slb-sync-err | sls.app.ack.ccm.sync_slb_failed |
删除LoadBalancer失败 | 集群删除LoadBalancer失败事件。请提交工单联系容器服务团队。 | 日志服务 | event | slb-del-err | sls.app.ack.ccm.del_slb_failed |
创建路由失败 | 集群创建VPC网络路由失败事件。请提交工单联系容器服务团队。 | 日志服务 | event | route-create-err | sls.app.ack.ccm.create_route_failed |
同步路由失败 | 集群同步VPC网络路由失败事件。请提交工单联系容器服务团队。 | 日志服务 | event | route-sync-err | sls.app.ack.ccm.sync_route_failed |
Terway资源无效 | 集群Terway网络资源无效异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | terway-invalid-res | sls.app.ack.terway.invalid_resource |
Terway分配IP失败 | 集群Terway网络资源分配IP失败异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | terway-alloc-ip-err | sls.app.ack.terway.alloc_ip_fail |
解析Ingress带宽配置失败 | 集群Ingress网络解析配置异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | terway-parse-err | sls.app.ack.terway.parse_fail |
Terway分配网络资源失败 | 集群Terway网络资源分配失败异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | terway-alloc-res-err | sls.app.ack.terway.allocate_failure |
Terway回收网络资源失败 | 集群Terway网络资源回收失败异常事件。请提交工单联系容器服务团队。 | 日志服务 | event | terway-dispose-err | sls.app.ack.terway.dispose_failure |
Terway虚拟模式变更 | 集群Terway网络虚拟模式变更事件。请提交工单联系容器服务团队。 | 日志服务 | event | terway-virt-mod-err | sls.app.ack.terway.virtual_mode_change |
Terway触发Pod IP配置检查 | 集群Terway网络触发Pod IP配置检查事件。 | 日志服务 | event | terway-ip-check | sls.app.ack.terway.config_check |
Ingress重载配置失败 | 集群Ingress网络配置重载异常事件。请检查Ingress配置是否正确。请提交工单联系容器服务团队。 | 日志服务 | event | ingress-reload-err | sls.app.ack.ingress.err_reload_nginx |
集群重要审计操作报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
发生集群登录容器/执行命令操作 | 可能是维护或异常活动,审计操作可用于追踪及安全检测。 | 日志服务 | event | audit-at-command | sls.app.k8s.audit.at.command |
发生集群节点可调度状态变化 | 影响服务效率及资源负载,需即时跟进调整意图及验证效果。 | 日志服务 | event | audit-cordon-switch | sls.app.k8s.audit.at.cordon.uncordon |
发生集群删除资源操作 | 资源删除可能是计划性或异常行为,建议审计以防范风险。 | 日志服务 | event | audit-resource-delete | sls.app.k8s.audit.at.delete |
发生集群节点发生排水/驱逐行为 | 反映出节点负载压力或策略执行,需确认其必要及影响。 | 日志服务 | event | audit-drain-eviction | sls.app.k8s.audit.at.drain.eviction |
发生集群公网登录行为 | 公网登录可能存在安全隐患,需确认登录和访问权限配置。 | 日志服务 | event | audit-internet-login | sls.app.k8s.audit.at.internet.login |
发生集群节点label更新 | 标签更新用于区分和管理节点资源,正确性影响运维效率。 | 日志服务 | event | audit-node-label-update | sls.app.k8s.audit.at.label |
发生集群节点taint更新 | 节点污点配置变化,影响调度策略和容忍度机制,需正确执行和审核配置。 | 日志服务 | event | audit-node-taint-update | sls.app.k8s.audit.at.taint |
发生集群资源修改操作 | 资源配置的实时修改可能指示出应用策略的调整,需验证其是否符合业务目标。 | 日志服务 | event | audit-resource-update | sls.app.k8s.audit.at.update |
集群安全异常事件
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
安全巡检发现高危风险配置 | 集群安全巡检发现高危风险配置事件。请提交工单联系容器服务团队。 | 日志服务 | event | si-c-a-risk | sls.app.ack.si.config_audit_high_risk |
集群巡检异常事件报警规则集
报警项 | 规则说明 | 报警来源 | Rule_Type | ACK_CR_Rule_Name | SLS_Event_ID |
集群巡检发现异常 | 自动巡检机制捕捉到潜在异常,需分析具体问题与日常维护策略。请提交工单联系容器服务团队。 | 日志服务 | event | cis-sched-failed | sls.app.ack.cis.schedule_task_failed |
问题现象:
报警中心中报警规则同步状态,提示The Project does not exist : k8s-log-xxx
。
问题原因:
未创建SLS事件中心资源。
解决方案:
重新安装ack-node-problem-detector组件。
重新安装组件,会重新创建默认的名为k8s-log-xxxxxx的Project。
卸载ack-node-problem-detector组件。
在容器服务管理控制台目标集群管理页左侧导航栏中,选择运维管理 > 组件管理。
单击日志与监控页签,在ack-node-problem-detector组件的卡片中单击卸载。然后在弹框中单击确定。
待卸载完成后,安装ack-node-problem-detector组件。
在左侧导航栏,选择运维管理 > 报警配置
在报警配置页面,单击开始安装,控制台会自动创建Project,安装组件、升级组件。
然后在报警配置页面,将对应的报警规则集右侧的启动状态关闭,等待其报警规则状态为规则已关闭后,再启动重试。
this rule have no xxx contact groups reference
问题现象:
报警规则同步状态失败出现类似报错信息this rule have no xxx contact groups reference
。
问题原因:
报警规则无订阅的联系人组。
解决方案:
已创建联系人,并将联系人加入联系人分组中。
在对应报警规则集右侧单击编辑通知对象,为该组报警规则配置订阅的联系人分组。