{"product":"PRODUCTS","solution":"SOLUTIONS","keyword":"KEYWORDS"}
借助阿里云在亚洲加速迈向成功
一站式安全合规咨询服务
MLPS 2.0 一站式合规解决方案
依托我们的网络进军中国市场
提升面向互联网应用的性能和安全性
保障您的中国业务安全无忧
通过强大的数据安全框架保护您的数据资产
申请 ICP 备案的流程解读和咨询服务
面向大数据建设、管理及应用的全域解决方案
企业内大数据建设、管理和应用的一站式解决方案
将您的采购和销售置于同一企业级全渠道数字平台上
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
快速搭建在线教育平台
提供域名注册、分析和保护服务
云原生 Kubernetes 容器化应用运行环境
以 Kubernetes 为使用界面的容器服务产品,提供符合容器规范的算力资源
安全的镜像托管服务,支持全生命周期管理
多集群环境下微服务应用流量统一管理
提供任意基础设施上容器集群的统一管控,助您轻松管控分布式云场景
高弹性、高可靠的企业级无服务器 Kubernetes 容器产品
敏捷安全的 Serverless 容器运行服务
为虚拟机和容器提供高可靠性、高性能、低时延的块存储服务
一款海量、安全、低成本、高可靠的云存储服务
可靠、弹性、高性能、多共享的文件存储服务
全托管、可扩展的并行文件系统服务。
全托管的 NoSQL 结构化数据实时存储服务
可抵扣多种存储产品的容量包,兼具灵活性和长期成本优化
让您的应用跨不同可用区资源自动分配访问量
随时绑定和解绑 VPC ECS
云网络公网、跨域流量统一计费
高性价比,可抵扣按流量计费的流量费用
创建云上隔离的网络,在专有环境中运行资源
在 VPC 环境下构建公网流量的出入口
具备网络状态可视化、故障智能诊断能力的自助式网络运维服务。
安全便捷的云上服务专属连接
基于阿里云专有网络的私有 DNS 解析服务
保障在线业务不受大流量 DDoS 攻击影响
系统运维和安全审计管控平台
业务上云的第一个网络安全基础设施
集零信任内网访问、办公数据保护、终端管理等多功能于一体的办公安全管控平台
提供7X24小时安全运维平台
防御常见 Web 攻击,缓解 HTTP 泛洪攻击
实现全站 HTTPS,呈现可信的 WEB 访问
为云上应用提供符合行业标准和密码算法等级的数据加解密、签名验签和数据认证能力
一款发现、分类和保护敏感数据的安全服务
创建、控制和管理您的加密密钥
快速提高应用高可用能力服务
围绕应用和微服务的 PaaS 平台
兼容主流开源微服务生态的一站式平台
多集群环境下微服务应用流量统一管理
Super MySQL 和 PostgreSQL,高度兼容 Oracle 语法
全托管 MySQL、PostgreSQL、SQL Server、MariaDB
兼容 Redis® 的缓存和KV数据库
兼容Apache Cassandra、Apache HBase、Elasticsearch、OpenTSDB 等多种开源接口
文档型数据库,支持副本集和分片架构
100%兼容 Apache HBase 并深度扩展,稳定、易用、低成本的NoSQL数据库。
低成本、高可用、可弹性伸缩的在线时序数据库服务
专为搜索和分析而设计,成本效益达到开源的两倍,采用最新的企业级AI搜索和AI助手功能。
一款兼容PostgreSQL协议的实时交互式分析产品
一种快速、完全托管的 TB/PB 级数据仓库
基于 Flink 为大数据行业提供解决方案
基于Qwen和其他热门模型的一站式生成式AI平台,可构建了解您业务的智能应用程
一站式机器学习平台,满足数据挖掘分析需求
高性能向量检索服务,提供低代码API和高成本效益
帮助您的应用快速构建高质量的个性化推荐服务能力
提供定制化的高品质机器翻译服务
全面的AI计算平台,满足大模型训练等高性能AI计算的算力和性能需求
具备智能会话能力的会话机器人
基于机器学习的智能图像搜索产品
基于阿里云深度学习技术,为用户提供图像分割、视频分割、文字识别等离线SDK能力,支持Android、iOS不同的适用终端。
语音识别、语音合成服务以及自学习平台
一站式智能搜索业务开发平台
助力金融企业快速搭建超低时延、高质量、稳定的行情数据服务
帮助企业快速测算和分析企业的碳排放和产品碳足迹
企业工作流程自动化,全面提高效率
金融级云原生分布式架构的一站式高可用应用研发、运维平台
eKYC 数字远程在线解决方案
可智能检测、大数据驱动的综合性反洗钱 (AML) 解决方案
阿里云APM类监控产品
实时云监控服务,确保应用及服务器平稳运行
为系统运维人员管理云基础架构提供全方位服务的云上自动化运维平台
面向您的云资源的风险检测服务
提升分布式环境下的诊断效率
日志类数据一站式服务,无需开发就能部署
ECS 预留实例
让弹性计算产品的成本和灵活性达到最佳平衡的付费方式。云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势自带IP上云
自带公网 IP 地址上云全球网络互联
端到端的软件定义网络解决方案,可推动跨国企业的业务发展全球应用加速
提升面向互联网应用的性能和安全性全球互联网接入
将IDC网关迁移到云端云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势金融科技云数据库解决方案
利用专为金融科技而设的云原生数据库解决方案游戏行业云数据库解决方案
提供多种成熟架构,解决所有数据问题Oracle 数据库迁移
将 Oracle 数据库顺利迁移到云原生数据库数据库迁移
加速迁移您的数据到阿里云阿里云上的数据湖
实时存储、管理和分析各种规模和类型的数据数码信贷
利用大数据和 AI 降低信贷和黑灰产风险面向企业数据技术的大数据咨询服务
帮助企业实现数据现代化并规划其数字化未来人工智能对话服务
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人EasyDispatch 现场服务管理
为现场服务调度提供实时AI决策支持在线教育
快速搭建在线教育平台窄带高清 (HD) 转码
带宽成本降低高达 30%广电级大型赛事直播
为全球观众实时直播大型赛事,视频播放流畅不卡顿直播电商
快速轻松地搭建一站式直播购物平台用于供应链规划的Alibaba Dchain
构建和管理敏捷、智能且经济高效的供应链云胸牌
针对赛事运营的创新型凭证数字服务数字门店中的云 POS 解决方案
将所有操作整合到一个云 POS 系统中元宇宙
元宇宙是下一代互联网人工智能 (AI) 加速
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速DevOps
快速、安全地最大限度提高您的DevOps优势数据迁移解决方案
加速迁移您的数据到阿里云企业 IT 治理
在阿里云上构建高效可控的云环境基于日志管理的AIOps
登录到带有智能化日志管理解决方案的 AIOps 环境备份与存档
数据备份、数据存档和灾难恢复用阿里云金融服务加快创新
在云端开展业务,提升客户满意度
为全球资本市场提供安全、准确和数字化的客户体验
利用专为金融科技而设的云原生数据库解决方案
利用大数据和 AI 降低信贷和黑灰产风险
建立快速、安全的全球外汇交易平台
新零售时代下,实现传统零售业转型
利用云服务处理流量波动问题,扩展业务运营、降低成本
快速轻松地搭建一站式直播购物平台
面向大数据建设、管理及应用的全域解决方案
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
以数字化媒体旅程为当今的媒体市场准备就绪您的内容
带宽成本降低高达 30%
快速轻松地搭建一站式直播购物平台
为全球观众实时直播大型赛事,视频播放流畅不卡顿
使用阿里云弹性高性能计算 E-HPC 将本地渲染农场连接到云端
构建发现服务,帮助客户找到最合适的内容
保护您的媒体存档安全
通过统一的数据驱动平台提供一致的全生命周期客户服务
在钉钉上打造一个多功能的电信和数字生活平台
在线存储、共享和管理照片与文件
提供全渠道的无缝客户体验
面向中小型企业,为独立软件供应商提供可靠的IT服务
打造最快途径,助力您的新云业务扬帆起航
先进的SD-WAN平台,可实现WAN连接、实时优化并降低WAN成本
通过自动化和流程标准化实现快速事件响应
针对关键网络安全威胁提供集中可见性并进行智能安全分析
提供大容量、可靠且高度安全的企业文件传输
用智能技术数字化体育赛事
基于人工智能的低成本体育广播服务
专业的广播转码及信号分配管理服务
基于云的音视频内容引入、编辑和分发服务
在虚拟场馆中模拟关键运营任务
针对赛事运营的创新型凭证数字服务
智能和交互式赛事指南
轻松管理云端背包单元的绑定直播流
通过数据加强您的营销工作
元宇宙是下一代互联网
利用生成式 AI 加速创新,创造新的业务佳绩
阿里云高性能开源大模型
借助AI轻松解锁和提炼文档中的知识
通过AI驱动的语音转文本服务获取洞察
探索阿里云人工智能和数据智能的所有功能、新优惠和最新产品
该体验中心提供广泛的用例和产品帮助文档,助您开始使用阿里云 AI 产品和浏览您的业务数据。
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速
元宇宙是下一代互联网
构建发现服务,帮助客户找到最合适的内容
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
加速迁移您的数据到阿里云
在阿里云上建立一个安全且易扩容的环境,助力高效率且高成本效益的上云旅程
迁移到完全托管的云数据库
将 Oracle 数据库顺利迁移到云原生数据库
自带公网 IP 地址上云
利用阿里云强大的安全工具集,保障业务安全、应用程序安全、数据安全、基础设施安全和帐户安全
保护、备份和还原您的云端数据资产
MLPS 2.0 一站式合规解决方案
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
实现对 CloudOps、DevOps、SecOps、AIOps 和 FinOps 的高效、安全和透明的管理
构建您的原生云环境并高效管理集群
快速、安全地最大限度提高您的DevOps优势
实施细粒度安全控制
提供运维效率和总体系统安全性
实时分析您的云消耗并实现节约
实时存储、管理和分析各种规模和类型的数据
登录到带有智能化日志管理解决方案的 AIOps 环境
帮助企业实现数据现代化并规划其数字化未来
帮助零售商快速规划数字化之旅
将全球知名的 CRM 平台引入中国
在线存储、共享和管理照片与文件
构建、部署和管理高可用、高可靠、高弹性的应用程序
快速、安全地最大限度提高您的DevOps优势
将您的采购和销售置于同一企业级全渠道数字平台上
企业内大数据建设、管理和应用的一站式解决方案
帮助企业简化 IT 架构、实现商业价值、加速数字化转型的步伐
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
快速搜集、处理、分析联网设备产生的数据
0.0.201
本文中含有需要您注意的重要提示信息,忽略该信息可能对您的业务造成影响,请务必仔细阅读。
本文介绍关于节点异常问题的诊断流程、排查思路、常见问题及解决方案。
类别 | 内容 |
类别 | 内容 |
诊断流程 | |
常见排查方法 | |
常见问题及解决方案 |
|
查看节点是否处于异常状态。具体操作,请参见检查节点的状态。
若节点处于NotReady状态,可参考如下步骤进行排查:
检查节点状态信息,查看PIDPressure、DiskPressure、MemoryPressure等节点类型的状态是否为True。若某一节点类型的状态为True,则根据相应异常状态关键字进行排查。具体操作,请参见Dockerd异常处理-RuntimeOffline、节点内存不足-MemoryPressure和节点索引节点不足-InodesPressure等进行解决。
检查节点的关键组件和日志。
Kubelet
检查Kubelet的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若Kubelet存在异常,请参见Kubelet异常处理操作。
Dockerd
检查Dockerd的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若Dockerd存在异常,请参见Dockerd异常处理-RuntimeOffline操作。
Containerd
检查Containerd的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若Containerd存在异常,请参见Containerd异常处理-RuntimeOffline操作。
NTP
检查NTP服务的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若NTP服务存在异常,请参见NTP异常处理-NTPProblem操作。
检查节点的诊断日志。具体操作,请参见检查节点的诊断日志。
检查节点的监控,查看节点CPU、内存、网络等资源负载情况是否存在异常。具体操作,请参见检查节点的监控。若节点负载异常,请参见节点CPU不足和节点内存不足-MemoryPressure等解决。
若节点处于Unknown状态,可参考如下步骤进行排查。
检查节点ECS实例状态是否为运行中。
检查节点的关键组件。
Kubelet
检查Kubelet的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若Kubelet存在异常,请参见Kubelet异常处理操作。
Dockerd
检查Dockerd的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若Dockerd存在异常,请参见Dockerd异常处理-RuntimeOffline操作。
Containerd
检查Containerd的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若Containerd存在异常,请参见Containerd异常处理-RuntimeOffline操作。
NTP
检查NTP服务的状态、日志、配置等是否存在异常。具体操作,请参见检查节点的关键组件。
若NTP服务存在异常,请参见NTP异常处理-NTPProblem操作。
检查节点的诊断日志。具体操作,请参见检查节点的诊断日志。
检查节点的监控,查看节点CPU、内存、网络等资源负载情况是否存在异常。具体操作,请参见检查节点的监控。若节点负载异常,请参见节点CPU不足和节点内存不足-MemoryPressure解决。
若根据诊断流程未能排查问题,请使用容器服务ACK提供的故障诊断功能进行排查。具体操作,请参见节点故障诊断。
若问题仍未解决,请提交工单排查。
当节点出现故障时,您可以使用容器服务ACK提供的故障诊断功能,一键诊断节点异常。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择节点管理 > 节点。
在节点页面,单击目标诊断节点右侧操作列下的故障诊断。
在弹出的面板中单击发起诊断。
在诊断详情页面,根据诊断后的异常信息进行排查。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择节点管理 > 节点。
在节点页面,单击目标节点名称或者目标节点右侧操作列下的更多 > 详情,查看节点的详情。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择节点管理 > 节点。
在节点页面,可查看对应节点的状态。
若节点状态为运行中,说明节点运行正常。
若节点状态不是运行中,可单击目标节点名称或者目标节点右侧操作列下的更多 > 详情,查看异常状态节点的详情。
若您要收集InodesPressure、DockerOffline、RuntimeOffline等类型的状态信息,需要在集群中安装node-problem-detector并创建事件中心,该功能在创建集群时默认选中。更多信息,请参见创建并使用K8s事件中心。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择节点管理 > 节点。
在节点页面,单击目标节点名称或者目标节点右侧操作列下的更多 > 详情,查看节点的详情。
在节点详情页面的最下方,可查看节点事件信息。
使用脚本收集诊断日志:具体操作,请参见如何收集Kubernetes集群诊断信息?。
使用控制台收集诊断日志:具体操作,请参见采集节点的诊断日志。
Kubelet:
查看Kubelet状态
登录对应节点,在节点上执行如下命令,查看Kubelet进程状态。
systemctl status kubelet
预期输出:
查看Kubelet日志
登录对应节点,在节点上执行如下命令,可查看Kubelet日志信息。关于更多查看Kubelet日志的方式,请参见检查节点的诊断日志。
journalctl -u kubelet
查看Kubelet配置
登录对应节点,在节点上执行如下命令,可查看Kubelet配置信息。
cat /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
运行时:
检查Dockerd
查看Dockerd状态
登录对应节点,在节点上执行如下命令,查看Dockerd进程状态。
systemctl status docker
预期输出:
查看Dockerd日志
登录对应节点,在节点上执行如下命令,可查看Dockerd的日志信息。关于更多查看Dockerd日志的方式,请参见检查节点的诊断日志。
journalctl -u docker
查看Dockerd配置
登录对应节点,在节点上执行如下命令,可查看Dockerd配置信息。
cat /etc/docker/daemon.json
检查Containerd
查看Containerd状态
登录对应节点,在节点上执行如下命令,查看Containerd进程状态。
systemctl status containerd
预期输出:
查看Containerd日志
登录对应节点,在节点上执行如下命令,可查看Containerd日志信息。关于更多查看Containerd日志的方式,请参见检查节点的诊断日志 。
journalctl -u containerd
检查NTP:
查看NTP服务状态
登录对应节点,在节点上执行如下命令,查看Chronyd进程的状态。
systemctl status chronyd
预期输出:
查看NTP服务日志
登录对应节点,在节点上执行如下命令,可查看NTP日志信息。
journalctl -u chronyd
云监控
阿里云容器服务ACK集群集成了监控服务,可登录云监控制台查看对应ECS实例的基本监控信息,关于云监控节点的使用方式,请参见监控节点。
Prometheus监控
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择运维管理 > Prometheus 监控。
在Prometheus 监控页面,单击节点监控页签,然后再单击集群节点监控详情页签。
在集群节点监控详情页面选择待查看的节点,可查看对应节点的CPU、内存、磁盘等监控信息。
通常是Kubelet进程异常、运行时异常、Kubelet配置有误等原因导致。
Kubelet状态为inactive。
执行如下命令重启Kubelet。重启Kubelet不会影响运行中的容器。
systemctl restart kubelet
Kubelet重启后,登录节点执行以下命令,再次查看kubelet状态是否恢复正常。
systemctl status kubelet
若Kubelet重启后状态仍异常,请登录节点执行以下命令查看Kubelet日志。
journalctl -u kubelet
若日志中有明确的异常信息,请根据异常关键字进行排查。
若确认是Kubelet配置异常,请执行如下命令修改Kubelet配置。
vi /etc/systemd/system/kubelet.service.d/10-kubeadm.conf #修改Kubelet配置。
systemctl daemon-reload;systemctl restart kubelet #重新加载配置并重启Kubelet。
通常是Dockerd配置异常、进程负载异常、节点负载异常等原因导致。
Dockerd状态为inactive。
Dockerd状态为active (running),但未正常工作,导致节点异常。通常有docker ps
、docker exec
等命令执行失败的现象。
节点状态中RuntimeOffline为True。
若集群配置了集群节点异常报警,则节点Dockerd异常时可收到相关报警。关于配置报警,请参见容器服务报警管理。
执行如下命令重启Dockerd。
systemctl restart docker
Dockerd重启后,登录节点执行以下命令,再次查看Dockerd状态是否恢复正常。
systemctl status docker
若Dockerd重启后状态仍异常,请登录节点执行以下命令查看Dockerd日志。
journalctl -u docker
通常是Containerd配置异常、进程负载异常、节点负载异常等原因导致。
Containerd状态为inactive。
节点状态中RuntimeOffline为True。
若集群配置了集群节点异常报警,则节点Containerd异常时可收到相关报警。关于配置报警,请参见容器服务报警管理。
执行如下命令重启Containerd。
systemctl restart containerd
Containerd重启后,登录节点执行以下命令,再次查看Containerd状态是否恢复正常。
systemctl status containerd
若Containerd重启后状态仍异常,请登录节点执行以下命令查看Containerd日志。
journalctl -u containerd
通常是NTP进程状态异常导致。
Chronyd状态为inactive。
节点状态中NTPProblem为True。
若集群配置了集群节点异常报警,则节点时间服务异常时可收到相关报警。关于配置报警,请参见容器服务报警管理。
执行如下命令重启Chronyd。
systemctl restart chronyd
Chronyd重启后,登录节点执行以下命令,再次查看Chronyd状态是否恢复正常。
systemctl status chronyd
若Chronyd重启后状态仍异常,请登录节点执行以下命令查看Chronyd日志。
journalctl -u chronyd
Pod生命周期事件生成器PLEG(Pod Lifecycle Event Generator)会记录Pod生命周期中的各种事件,如容器的启动、终止等。PLEG is not healthy
异常通常是由于节点上的运行时进程异常或者节点Systemd版本缺陷导致。
节点状态NotReady。
在Kubelet日志中,可看到如下日志。
I0729 11:20:59.245243 9575 kubelet.go:1823] skipping pod synchronization - PLEG is not healthy: pleg was last seen active 3m57.138893648s ago; threshold is 3m0s.
若集群配置了集群节点异常报警,则节点PLEG异常时可收到相关报警。关于配置报警,请参见容器服务报警管理。
依次重启节点关键组件Dockerd、Contatinerd、Kubelet,重启后查看节点是否恢复正常。
若节点关键组件重启后节点仍未恢复正常,可尝试重启异常节点。具体操作,请参见重启实例。
重启节点可能会导致您的业务中断,请谨慎操作。
若异常节点系统为CentOS 7.6,参见 使用CentOS 7.6系统时kubelet日志含有“Reason:KubeletNotReady Message:PLEG is not healthy:”信息进行排查 。
通常是集群中的节点资源不足导致。
当集群中的节点调度资源不足时,会导致Pod调度失败,出现以下常见错误信息:
集群CPU资源不足:0/2 nodes are available: 2 Insufficient cpu
集群内存资源不足:0/2 nodes are available: 2 Insufficient memory
集群临时存储不足:0/2 nodes are available: 2 Insufficient ephemeral-storage
其中调度器判定节点资源不足的计算方式为:
集群节点CPU资源不足的判定方式:当前Pod请求的CPU资源总量>(节点可分配的CPU资源总量-节点已分配的CPU资源总量)
集群节点内存资源不足的判定方式:当前Pod请求的内存资源总量>(节点可分配的内存资源总量-节点已分配的内存资源总量)
集群节点临时存储不足的判定方式:当前Pod请求的临时存储总量>(节点可分配的临时存储总量-节点已分配的临时存储总量)
如果当前Pod请求的资源总量大于节点可分配的资源总量减去节点已分配的资源总量,Pod就不会调度到当前节点。
执行以下命令,查看节点的资源分配信息:
kubectl describe node [$nodeName]
关注输出中的如下部分::
Allocatable:
cpu: 3900m
ephemeral-storage: 114022843818
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 12601Mi
pods: 60
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 725m (18%) 6600m (169%)
memory 977Mi (7%) 16640Mi (132%)
ephemeral-storage 0 (0%) 0 (0%)
hugepages-1Gi 0 (0%) 0 (0%)
hugepages-2Mi 0 (0%) 0 (0%)
其中:
Allocatable:表示本节点可分配的(CPU/内存/临时存储)资源总量。
Allocated resources:表示本节点已经分配的(CPU/内存/临时存储)资源总量。
当节点调度资源不足时,需降低节点负载,方法如下:
删除或减少不必要的Pod,降低节点的负载。具体操作,请参见管理容器组(Pod)。
根据自身业务情况,限制Pod的资源配置。具体操作,请参见设置容器的CPU和内存资源上下限。
您可以使用ACK提供的资源画像功能,基于资源使用量的历史数据获得容器粒度的资源规格推荐,简化为容器配置Request和Limit的复杂度。更多信息,请参见资源画像。
在集群中添加新的节点。具体操作,请参见创建和管理节点池。
为节点进行升配。具体操作,请参见升降配节点资源。
更多信息,请参见节点CPU不足、节点内存不足-MemoryPressure和节点磁盘空间不足-DiskPressure。
通常是节点上的容器占用CPU过多导致节点的CPU不足。
当节点CPU不足时,可能会导致节点状态异常。
若集群配置了集群节点异常报警,则节点CPU使用率>=85%时可收到相关报警。关于配置报警,请参见容器服务报警管理。
通常是节点上的容器占用内存过多导致节点的内存不足。
当节点的可用内存低于memory.available
配置项时,则节点状态中MemoryPressure为True,同时该节点上的容器被驱逐。关于节点驱逐,请参见节点压力驱逐。
当节点内存不足时,会有以下常见错误信息:
节点状态中MemoryPressure为True。
当节点上的容器被驱逐时:
在被驱逐的容器事件中可看到关键字The node was low on resource: memory。
在节点事件中可看到关键字attempting to reclaim memory。
可能会导致系统OOM异常,当出现系统OOM异常时,节点事件中可看到关键字System OOM。
若集群配置了集群节点异常报警,则节点内存使用率>=85%时可收到相关报警。关于配置报警,请参见容器服务报警管理。
通常是节点上的容器占用索引节点过多导致节点的索引节点不足。
当节点的可用索引节点低于inodesFree
配置项时,则节点状态中InodesPressure为True,同时该节点上的容器被驱逐。关于节点驱逐,请参见节点压力驱逐。
当节点索引点不足时,通常会有以下常见错误信息:
节点状态中InodesPressure为True。
当节点上的容器被驱逐时:
被驱逐的容器事件中可看到关键字The node was low on resource: inodes。
节点事件中可看到关键字attempting to reclaim inodes。
若集群配置了集群节点异常报警,则节点索引节点不足时可收到相关报警。关于配置报警,请参见容器服务报警管理。
通过节点的监控查看索引节点增长曲线,确认异常出现时间点,检查节点上的进程是否存在占用索引节点过多现象。具体操作,请参见检查节点的监控。
其他问题相关操作,请参见解决Linux实例磁盘空间满问题。
通常是节点上的容器占用PID过多导致节点的PID不足。
当节点的可用PID低于pid.available
配置项时,则节点状态中NodePIDPressure为True,同时该节点上的容器被驱逐。关于节点驱逐,请参见节点压力驱逐。
若集群配置了集群节点异常报警,则节点PID不足时可收到相关报警。关于配置报警,请参见容器服务报警管理。
执行如下命令,查看节点的最大PID数和节点当前的最大PID。
sysctl kernel.pid_max #查看最大PID数。
ps -eLf|awk '{print $2}' | sort -rn| head -n 1 #查看当前的最大PID。
执行如下命令,查看占用PID最多的前5个进程。
ps -elT | awk '{print $4}' | sort | uniq -c | sort -k1 -g | tail -5
预期输出:
#第一列为进程占用的PID数,第二列为当前进程号。
73 9743
75 9316
76 2812
77 5726
93 5691
根据进程号找到对应进程和所属的Pod,分析占用PID过多的原因并优化对应代码。
降低节点的负载。具体操作,请参见节点调度资源不足。
如需重启节点,可尝试重启异常节点。具体操作,请参见重启实例。
重启节点可能会导致您的业务中断,请谨慎操作。
通常是节点上的容器占用磁盘过多、镜像文件过大导致节点的磁盘空间不足。
当节点的可用磁盘空间低于imagefs.available
配置项时,则节点状态中DiskPressure为True。
当可用磁盘空间低于nodefs.available
配置项时,则该节点上的容器全部被驱逐。关于节点驱逐,请参见节点压力驱逐。
当磁盘空间不足时,通常会有以下常见错误信息:
节点状态中DiskPressure为True。
当触发镜像回收策略后,磁盘空间仍然不足以达到健康阈值(默认为80%),在节点事件中可看到关键字failed to garbage collect required amount of images。
当节点上的容器被驱逐时:
被驱逐的容器事件中可看到关键字The node was low on resource: [DiskPressure]。
节点事件中可看到关键字attempting to reclaim ephemeral-storage或attempting to reclaim nodefs。
若集群配置了集群节点异常报警,则节点磁盘使用率>=85%时可收到相关报警。关于配置报警,请参见容器服务报警管理。
通过节点的监控查看磁盘增长曲线,确认异常出现时间点,检查节点上的进程是否存在占用磁盘空间过多的现象。具体操作,请参见检查节点的监控。
若有大量文件在磁盘上未清理,请清理文件。具体操作,请参见解决Linux实例磁盘空间满问题。
根据自身业务情况,限制Pod的ephemeral-storage
资源配置。具体操作,请参见设置容器的CPU和内存资源上下限。
建议使用阿里云存储产品,尽量避免使用HostPath数据卷。更多信息,请参见存储。
节点磁盘扩容。
降低节点的负载。具体操作,请参见节点调度资源不足。
通常是节点上的容器数过多导致IP资源不足。
Pod启动失败,状态为ContainerCreating。检查Pod的日志有类似如下报错,包含错误信息关键字InvalidVSwitchId.IpNotEnough。关于查看Pod日志的具体操作,请参见Pod异常问题排查。
time="2020-03-17T07:03:40Z" level=warning msg="Assign private ip address failed: Aliyun API Error: RequestId: 2095E971-E473-4BA0-853F-0C41CF52651D Status Code: 403 Code: InvalidVSwitchId.IpNotEnough Message: The specified VSwitch \"vsw-AAA\" has not enough IpAddress., retrying"
若集群配置了集群节点异常报警,则节点IP资源不足时可收到相关报警。关于配置报警,请参见容器服务报警管理。
降低节点上的容器数量。具体操作,请参见节点调度资源不足。其他相关操作,请参见Terway网络场景中交换机的IP资源不足和Terway网络模式扩容vSwitch后,依然无法分配Pod IP怎么办?。
通常是节点运行状态异常、安全组配置有误或网络负载过高导致。
节点无法登录。
节点状态Unknown。
若集群配置了集群节点异常报警,则节点公网流出带宽使用率 >=85%时可收到相关报警。关于配置报警,请参见容器服务报警管理。
若节点无法登录,请参考以下步骤进行排查:
检查节点实例状态是否为运行中。
检查节点的安全组配置。具体操作,请参见检查节点的安全组。
若节点的网络负载过高,请参考以下步骤进行排查:
通过节点的监控查节点网络增长曲线,检查节点上的Pod是否存在占用网络带宽过多的现象。具体操作,请参见检查节点的监控。
使用网络策略控制Pod的网络流量。具体操作,请参见在ACK集群使用网络策略。
通常是节点负载异常等原因导致。
在节点重启的过程中,节点状态为NotReady。
若集群配置了集群节点异常报警,则节点异常重启时可收到相关报警。关于配置报警,请参见容器服务报警管理。
部分集群的存量节点上默认配置了Docker相关的auditd审计规则,当节点使用了Docker容器运行时,这些审计规则会触发系统记录Docker操作相关的审计日志。在某些情况下(节点上大量容器集中反复重启、容器内应用短时间内写入海量文件、内核Bug等),会低概率出现系统大量写入审计日志影响节点磁盘IO,进而出现auditd进程占用大量磁盘IO的现象或者系统日志中出现audit: backlog limit exceeded错误的问题。
该问题只影响使用Docker容器运行时的节点。当您在节点上执行相关命令时,具体的问题现象如下:
执行iotop -o -d 1命令时,结果显示auditd进程的DISK WRITE
指标持续大于或等于1MB/s。
执行dmesg -d命令时,结果中存在包含关键字audit_printk_skb
的日志。比如audit_printk_skb: 100 callbacks suppressed
。
执行dmesg -d命令时,结果中存在关键字 audit: backlog limit exceeded
。
您可以通过以下操作,检查您的节点中出现的以上问题是否与节点的auditd配置有关:
登录集群节点。
执行以下命令,检查auditd规则。
sudo auditctl -l | grep -- ' -k docker'
如果该命令的输出中包含如下信息,说明该节点出现的问题与auditd配置有关。
-w /var/lib/docker -k docker
如果通过以上检查确认是该问题影响了集群节点,您可以选择以下三种解决方案的任一方案解决问题。
升级集群版本
您可以通过升级集群版本来修复该问题。具体操作,请参见升级ACK集群K8s版本。
使用Containerd容器运行时
对于无法升级的集群,可以通过使用Containerd代替Docker作为节点容器运行时的方法规避该问题。需要对每个使用Docker容器运行时的节点池进行如下操作:
通过克隆节点池的方式新建一个以Containerd为容器运行时的节点池,同时确保新节点池除容器运行时配置外的其他配置都与被克隆的目标节点池保持一致。
在业务低峰期对目标节点池内的节点逐个进行排空节点操作,确保已无业务服务部署在目标节点池中。
更新节点上的auditd配置
对于无法升级集群也不能使用Containerd容器运行时的场景,可以通过手动更新节点上的auditd配置的方法规避该问题。需要对每个使用Docker容器运行时的节点进行如下操作:
您可以对节点进行批量操作,具体操作,请参见批量运维节点。
登录集群节点。
执行以下命令,删除Docker相关的auditd规则。
sudo test -f /etc/audit/rules.d/audit.rules && sudo sed -i.bak '/ -k docker/d' /etc/audit/rules.d/audit.rules
sudo test -f /etc/audit/audit.rules && sudo sed -i.bak '/ -k docker/d' /etc/audit/audit.rules
执行以下命令,应用新的auditd规则。
if service auditd status |grep running || systemctl status auditd |grep running; then
sudo service auditd restart || sudo systemctl restart auditd
sudo service auditd status || sudo systemctl status auditd
fi
About
Resources
Products & Solutions
Live-chat with our sales team or get in touch with a business development professional in your region.