释放生成式AI的无限潜能

100 万免费令牌

降价88%

开始激活

开源Prometheus监控

更新时间:2025-03-21 06:13

Prometheus是一款面向云原生应用程序的监控工具,本文介绍如何在阿里云Kubernetes上部署Prometheus。

背景信息

本文将讨论在Kubernetes集群中如何高效地监控系统组件和资源实体。监控对象可分为以下两类:

  • 资源监控:涉及节点和应用的资源使用情况。在Kubernetes环境中,这包括节点的资源利用率、集群的资源利用率及Pod的资源利用率等。

  • 应用监控:应用内部指标的监控,例如实时统计应用的在线人数,并通过端口暴露来实现应用业务级别的监控与告警等。

监控对象具体为:

  • 系统组件:包括Kubernetes集群内置的组件,如API Server、cloud-controller-manager和etcd等。可通过在配置文件中进行设置来实现对这些组件的监控。

  • 静态资源实体:如节点的资源状态和内核事件等,其监控可在配置文件中指明。

  • 动态资源实体:例如Deployment、DaemonSet和Pod等,这是Kubernetes中抽象的工作负载实体。为了监控这些实体,可以采用Prometheus监控部署方案。

  • 自定义应用:针对需要定制化监控的数据和指标的应用情况,需具体设置以满足独特的监控需求,通过端口暴露和Prometheus监控方案相结合的方式实现。

步骤一:部署开源Prometheus监控

  1. 登录容器服务管理控制台,在左侧导航栏选择集群列表

  2. 集群列表页面,单击目标集群名称,然后在左侧导航栏,选择应用 > Helm

  3. Helm页面,单击创建,在Chart区域搜索并选中ack-prometheus-operator,其他设置保持默认,然后单击下一步

    • 根据弹出的页面提示确认,组件将被安装在默认的monitoring命名空间中,并以组件名称发布应用。

    • 如果您需要自定义应用名和命名空间,请根据页面提示设置。

  4. 参数配置页面中,选择Chart版本为12.0.0,并设置相应参数,然后单击确定。12.0.0版本支持报警配置,您可以通过内置功能设定监控告警条件。

    您根据实际需求自定义以下可选参数:

步骤二:查看Prometheus采集任务

  1. 登录容器服务管理控制台,在左侧导航栏选择集群列表

  2. 集群列表页面,单击目标集群名称,然后在左侧导航栏,选择网络 > 服务

  3. 在服务页面选择ack-prometheus-operator部署的命名空间(默认为monitoring),单击名称为ack-prometheus-operator-prometheus操作列下的更新

  4. 更新服务弹框中,选择负载均衡(LoadBalancer)作为服务类型。选择新建资源,并将访问方式设置为公网访问。选择按量计费(PayByCLCU)模式,然后单击确定。计费详情请参见CLB计费概述

  5. 完成更新后,复制其外部IP地址,然后在浏览器中通过IP地址:端口号(如47.XX.XX.12:9090)访问Prometheus。

  6. 在Prometheus页面,选择菜单栏Status > Targets,查看所有采集任务。如果所有任务的状态为UP,表示所有采集任务均已正常运行。

    image

  7. 选择菜单栏Alerts,即可查看当前的告警规则。

    Alerts

步骤三:查看Grafana数据聚合

  1. 登录容器服务管理控制台,在左侧导航栏选择集群列表

  2. 集群列表页面,单击目标集群名称,然后在左侧导航栏,选择网络 > 服务

  3. 服务页面选择ack-prometheus-operator部署的命名空间(默认为monitoring),单击名称为ack-prometheus-operator-grafana操作列下的更新

  4. 更新服务弹框中,选择负载均衡(LoadBalancer)作为服务类型。选择新建资源,将访问方式设置为公网访问。选择按流量计费模式,然后单击确定。计费详情请参见CLB计费概述

  5. 完成更新后,复制其外部IP地址,然后在浏览器中通过IP地址:端口号,其中端口号默认为80(如47.XX.XX.12:80)。

    Dashboard

(可选)步骤四:设置告警压制

在特定的情况下压制告警,所有符合匹配条件的告警将被压制,不会发送通知或被激活,直到压制时间结束或手动删除压制规则。

执行以下命令,然后将EIP绑定至ECS实例,在浏览器中访问<EIP>:9093,选择Silenced,设置告警压制。

kubectl --address 0.0.0.0 port-forward svc/alertmanager-operated 9093 -n monitoring

image

告警配置

prometheus-operator支持钉钉告警和邮件告警。以下是详细的配置步骤。

  1. 参数配置向导页面,根据如下参数设置告警参数。

    • 配置钉钉告警。

      • 在配置文件中找到dingtalk字段,将enabled设置为 true

      • token字段中填入钉钉的Webhook地址。获取Webhook地址请参见使用钉钉机器人:使用钉钉机器人实现Kubernetes监控告警

      • alertmanagerconfig字段下的receiver配置中,填写您在receivers中定义的钉钉告警名称(默认为webhook)。

        多个钉钉机器人配置示例

        例如您有两个钉钉机器人,操作示例如下:

        1. 替换钉钉的token配置

          在您的钉钉机器人中,分别把拷贝webhook地址替换为dingtalk1和dingtalk2的地址。即,使用webhook地址替换下图中的https://oapi.dingtalk.com/robot/send?access_token=xxxxxxxxxx

          token配置

        2. 修改receivers

          alertmanager的config字段找到receiver,填写您receivers中对应的钉钉告警名称,本例中分别为webhook1webhook2

        3. 修改URL的值

          将URL中的值替换成实际的dingtalk的值,本例中为dingtalk1dingtalk2

          webhook配置

        说明

        如果需要添加多个钉钉机器人,请将前面的Webhook依次递增即可。

    • 配置邮件告警 。

      • 在红色选框内补充完整邮件信息。

      • 在配置文件的alertmanager部分中找到config字段,定位到receiver并填写您在receivers中定义的邮件告警名称(默认是mail)。邮件告警

  • 设置告警接收模板。

    您可以在alertmanager的templateFiles定义我们的告警模板,示例如下。模板设置

Prometheus挂载自定义ConfigMap

以下是如何在 Prometheus 中使用名为 special-config 的 ConfigMap,该 ConfigMap 包含 Prometheus 的配置文件。在 Prometheus 的 pod 启动时,将此配置文件传递为 --config.file 参数。

  1. 创建ConfigMap。

    展开查看ConfigMap示例

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: special-config
    data:
      config.yaml: |
        global:
          # 抓取间隔,默认为 1m
          [ scrape_interval: <duration> | default = 1m ]
          
          # 抓取超时时间,默认为 10s
          [ scrape_timeout: <duration> | default = 10s ]
          
          # 规则评估间隔,默认为 1m
          [ evaluation_interval: <duration> | default = 1m ]
    
        # 抓取配置
        scrape_configs:
        [ - <scrape_config> ... ]
    
        # 规则配置
        rule_files:
        [ - <filepath_glob> ... ]
    
        # 告警配置
        alerting:
          alert_relabel_configs:
          [ - <relabel_config> ... ]
          alertmanagers:
          [ - <alertmanager_config> ... ]
  2. 挂载ConfigMap。

    参数配置页面ConfigMaps字段中添加以下定义,这样即可将其挂载到pod 中,路径为/etc/prometheus/configmaps/

    更新配置

    prometheus的ConfigMaps字段配置如下。

    ## ConfigMaps is a list of ConfigMaps in the same namespace as the Prometheus.
    ## The ConfigMaps are mounted into /etc/prometheus/configmaps/.
    ##
    configMaps:
      - "special-config"
      - "detail-config"

Grafana配置

  • Dashboard的外挂配置

    如果您想将Dashboard文件以ConfigMap的方式挂载到Grafana pod中,您可以在参数配置向导中,找到extraConfigmapMounts,您可以在下图的字段中进行挂载配置。dashboard外挂配置

    说明
    • 首先确保Dashboard以ConfigMap的形式存在于集群中,然后ConfigMap的labels必须与其他的ConfigMap格式保持一致。

    • 在Grafana的extraConfigmapMounts字段填入我们的ConfigMap信息以及挂载信息。

      • mountPath是/tmp/dashboards/

      • ConfigMap是您定义的ConfigMap的名称。

      • name是您Dashboard的JSON名称。

  • Dashboard的持久化

    Grafana支持Dashboard的持久化操作如下:

    1. 登录容器服务管理控制台,在左侧导航栏单击集群列表

    2. 集群列表页面,单击目标集群名称,然后在左侧导航栏,选择应用 > Helm

    3. 找到ack-prometheus-operator,然后单击右侧更新

    4. 更新发布面板,grafana的字段下找到persistence选项,按照下图配置完成Grafana的持久化操作。

    grafana的持久化操作

    如果我们需要将我们的Dashboard导出到本地,我们可以通过将需要保存的Dashboard导出为JSON文件的方式,将其保存到本地。请参见Grafana导出

卸载开源Prometheus

请根据Helm Chart版本参见以下流程卸载开源Prometheus,以避免资源残留,继而产生非预期行为。需要手动清理的资源包括相关的Helm Release、命名空间、CRD和kubelet Service资源。

卸载ack-prometheus-operator但无法自动删除关联的kubelet Service是社区已知问题,需参见下文手动卸载。问题详细描述,请参见#1523
Chart v12.0.0
Chart v65.1.1
控制台
kubectl
  1. 登录容器服务管理控制台,在左侧导航栏选择集群列表

  2. 集群列表页面,单击目标集群名称,然后在左侧导航栏选择不同界面,完成对应操作。

    • 卸载Helm Release:选择应用 > Helm,在Helm Release列表的操作列,定位到ack-prometheus-operator对应的删除,按照页面提示完成删除并清除发布记录。

    • 删除命名空间:单击命名空间与配额,在命名空间列表,定位并勾选monitoring,按照页面提示完成删除。

    • 删除CRD:选择工作负载 > 自定义资源,单击资源定义(CustomResourceDefinition)页签,按照页面提示定位并删除monitoring.coreos.comAPI组下的所有CRD资源,包括:

      • AlertmanagerConfig

      • Alertmanager

      • PodMonitor

      • Probe

      • Prometheus

      • PrometheusRule

      • ServiceMonitor

      • ThanosRuler

    • 删除kubelet Service:选择网络 > 服务,按照页面提示,在kube-system命名空间下定位并删除ack-prometheus-operator-kubelet。

  • 卸载Helm release

    helm uninstall ack-prometheus-operator -n monitoring
  • 删除命名空间

    kubectl delete namespace monitoring
  • 删除CRD

    kubectl delete crd alertmanagerconfigs.monitoring.coreos.com
    kubectl delete crd alertmanagers.monitoring.coreos.com
    kubectl delete crd podmonitors.monitoring.coreos.com
    kubectl delete crd probes.monitoring.coreos.com
    kubectl delete crd prometheuses.monitoring.coreos.com
    kubectl delete crd prometheusrules.monitoring.coreos.com
    kubectl delete crd servicemonitors.monitoring.coreos.com
    kubectl delete crd thanosrulers.monitoring.coreos.com
  • 删除kubelet Service

    kubectl delete service ack-prometheus-operator-kubelet -n kube-system
控制台
kubectl
  1. 登录容器服务管理控制台,在左侧导航栏选择集群列表

  2. 集群列表页面,单击目标集群名称,然后在左侧导航栏选择不同界面,完成对应操作。

    • 卸载Helm Release:选择应用 > Helm,在Helm Release列表的操作列,定位ack-prometheus-operator对应的删除,按照页面提示完成删除并清除发布记录。

    • 删除命名空间:单击命名空间与配额,在命名空间列表,定位并勾选monitoring,按照页面提示完成删除。

    • 删除CRD:选择工作负载 > 自定义资源,单击资源定义(CustomResourceDefinition)页签,按照页面提示定位并删除monitoring.coreos.comAPI组下的所有CRD资源,包括:

      • AlertmanagerConfig

      • Alertmanager

      • PodMonitor

      • Probe

      • PrometheusAgent

      • Prometheus

      • PrometheusRule

      • ScrapeConfig

      • ServiceMonitor

      • ThanosRuler

    • 删除kubelet Service:选择网络 > 服务,按照页面提示,在kube-system命名空间下定位并删除ack-prometheus-operator-kubelet。

  • 卸载Helm release

    helm uninstall ack-prometheus-operator -n monitoring
  • 删除命名空间

    kubectl delete namespace monitoring
  • 删除CRD

    kubectl delete crd alertmanagerconfigs.monitoring.coreos.com
    kubectl delete crd alertmanagers.monitoring.coreos.com
    kubectl delete crd podmonitors.monitoring.coreos.com
    kubectl delete crd probes.monitoring.coreos.com
    kubectl delete crd prometheusagents.monitoring.coreos.com
    kubectl delete crd prometheuses.monitoring.coreos.com
    kubectl delete crd prometheusrules.monitoring.coreos.com
    kubectl delete crd scrapeconfigs.monitoring.coreos.com
    kubectl delete crd servicemonitors.monitoring.coreos.com
    kubectl delete crd thanosrulers.monitoring.coreos.com
  • 删除kubelet Service

    kubectl delete service ack-prometheus-operator-kubelet -n kube-system

常见问题

  • 钉钉配置后,没有收到告警。

    1. 获取钉钉的webhook地址。请参见事件监控

    2. 找到dingtalk字段,将enabled设置为true,将Token字段填入钉钉的webhook地址。请参见告警配置中的钉钉告警配置

  • 部署prometheus-operator时报错。

    报错信息如下

    Can't install release with errors: rpc error: code = Unknown desc = object is being deleted: customresourcedefinitions.apiextensions.k8s.io "xxxxxxxx.monitoring.coreos.com" already exists

    在卸载prometheus-operator的时候没有将上一次部署的自定义资源(CRD)及时清理掉,执行如下命令,删除CRD并重新部署。

    kubectl delete crd prometheuses.monitoring.coreos.com
    kubectl delete crd prometheusrules.monitoring.coreos.com
    kubectl delete crd servicemonitors.monitoring.coreos.com
    kubectl delete crd alertmanagers.monitoring.coreos.com
  • 邮件告警没有生效 。

    邮件告警没有生效,有可能是因为smtp_auth_password填写的是您的登录密码,而非授权码。另外SMTP的服务器地址需要加端口号。

  • 如果在单击YAML更新时,出现当前集群暂时无法访问,请稍后重试或提交工单反馈信息。

    此问题原因是tiller的配置文件过大,导致的集群无法访问,您可以先将部分注释删除,再将配置文件以ConfigMap形式,挂载到pod中,目前prometheus-operator只支持prometheus和alertmanager pod的挂载,详情请参见Prometheus挂载自定义ConfigMap中的方法二。

  • 部署prometheus-operator后,如何开启其中的功能?

    当部署好prometheus-operator后,如果要开启部分功能,在集群信息页面,选择应用 > Helm,在ack-prometheus-operator右侧,单击更新,找到对应的开关,进行相应的设置,然后单击确定开启您想要的功能。

  • TSDB和阿里云云盘的选择。

    TSDB支持的地域比较少,而阿里云云盘是全域支持,数据回收策略请参见以下配置。数据回收策略

  • Grafana dashboard显示有问题

    在集群信息页面选择应用 > Helm,在ack-prometheus-operator右侧,单击更新,查看clusterVersion的值是否为正确的集群版本。Kubernetes集群是1.16以前的版本,这里请填写1.14.8-aliyun.1,1.16及以后的版本,请填写1.16.6-aliyun.1。

  • 删除ack-prometheus的命名空间后,重新安装ack-prometheus失败。

    只删除ack-prometheus的命名空间,会导致资源删除后有残留配置,影响再次安装。您可以执行以下操作,删除残余配置。

    1. 删除RBAC权限。

      1. 删除ClusterRole。

        kubectl delete ClusterRole ack-prometheus-operator-grafana-clusterrole
        kubectl delete ClusterRole ack-prometheus-operator-kube-state-metrics
        kubectl delete ClusterRole psp-ack-prometheus-operator-kube-state-metrics
        kubectl delete ClusterRole psp-ack-prometheus-operator-prometheus-node-exporter
        kubectl delete ClusterRole ack-prometheus-operator-operator
        kubectl delete ClusterRole ack-prometheus-operator-operator-psp
        kubectl delete ClusterRole ack-prometheus-operator-prometheus
        kubectl delete ClusterRole ack-prometheus-operator-prometheus-psp
      2. 删除ClusterRoleBinding。

        kubectl delete ClusterRoleBinding ack-prometheus-operator-grafana-clusterrolebinding
        kubectl delete ClusterRoleBinding ack-prometheus-operator-kube-state-metrics
        kubectl delete ClusterRoleBinding psp-ack-prometheus-operator-kube-state-metrics
        kubectl delete ClusterRoleBinding psp-ack-prometheus-operator-prometheus-node-exporter
        kubectl delete ClusterRoleBinding ack-prometheus-operator-operator
        kubectl delete ClusterRoleBinding ack-prometheus-operator-operator-psp
        kubectl delete ClusterRoleBinding ack-prometheus-operator-prometheus
        kubectl delete ClusterRoleBinding ack-prometheus-operator-prometheus-psp
    2. 删除CRD。

      kubectl delete crd alertmanagerconfigs.monitoring.coreos.com
      kubectl delete crd alertmanagers.monitoring.coreos.com
      kubectl delete crd podmonitors.monitoring.coreos.com
      kubectl delete crd probes.monitoring.coreos.com
      kubectl delete crd prometheuses.monitoring.coreos.com
      kubectl delete crd prometheusrules.monitoring.coreos.com
      kubectl delete crd servicemonitors.monitoring.coreos.com
      kubectl delete crd thanosrulers.monitoring.coreos.com
  • 本页导读 (1)
  • 背景信息
  • 步骤一:部署开源Prometheus监控
  • 步骤二:查看Prometheus采集任务
  • 步骤三:查看Grafana数据聚合
  • (可选)步骤四:设置告警压制
  • 告警配置
  • Prometheus挂载自定义ConfigMap
  • Grafana配置
  • 卸载开源Prometheus
  • 常见问题
文档反馈
phone 联系我们

立即和Alibaba Cloud在线服务人员进行交谈,获取您想了解的产品信息以及最新折扣。

alicare alicarealicarealicare