Prometheus Operator
Le cerveau d'orchestration. Gère les instances Prometheus à l'aide de CRDs Kubernetes natifs — ServiceMonitors, PodMonitors et PrometheusRules pour une configuration déclarative.
Moteur principalDéployez Prometheus, Grafana, Alertmanager et les exporteurs essentiels en un seul chart Helm. Surveillance de niveau entreprise pour vos clusters Kubernetes — configurée en minutes, pas en jours.
Chaque composant travaille de concert pour fournir une observabilité de bout en bout — des métriques d'infrastructure à l'alerte intelligente et aux beaux tableaux de bord.
Le cerveau d'orchestration. Gère les instances Prometheus à l'aide de CRDs Kubernetes natifs — ServiceMonitors, PodMonitors et PrometheusRules pour une configuration déclarative.
Moteur principalBase de données de séries temporelles standard de l'industrie. Collecte, stocke et évalue les métriques de l'ensemble de votre cluster avec le puissant langage de requête PromQL.
TSDBCouche de visualisation riche avec des tableaux de bord préconfigurés pour la santé du cluster, les performances des nœuds et les métriques des charges de travail. Personnalisable et extensible.
VisualisationRoutage intelligent des alertes avec dé-duplication, regroupement et mise en sourdine. Acheminez les alertes vers Slack, PagerDuty, e-mail, MS Teams et des webhooks personnalisés.
AlertesDéployé en tant que DaemonSet sur chaque nœud, il expose les métriques CPU, mémoire, E/S disque et réseau — offrant une visibilité complète sur l'infrastructure hôte.
InfrastructureSurveille les objets API Kubernetes — déploiements, pods, replica sets, services — suivant l'état souhaité vs. réel de toutes vos charges de travail.
État K8sUn pipeline de données unifié de la collecte de métriques à l'alerte intelligente et à la visualisation riche.
Prometheus Operator surveille les CRDs ServiceMonitor et PodMonitor pour découvrir automatiquement les cibles de collecte.
Node Exporter collecte les métriques matérielles ; kube-state-metrics capture les états des objets Kubernetes depuis le serveur API.
Prometheus extrait les métriques de tous les points de terminaison découverts et les stocke en tant que données de séries temporelles avec une rétention configurable.
Les objets PrometheusRule définissent les conditions d'alerte. Les alertes déclenchées sont transmises à l'Alertmanager pour le routage.
L'Alertmanager dé-duplique, regroupe et achemine les alertes vers Slack, PagerDuty, e-mail ou tout récepteur webhook.
Grafana interroge Prometheus pour afficher des tableaux de bord en temps réel — préconfigurés pour la santé du cluster et entièrement personnalisables.
De zéro à une surveillance complète en moins de cinq minutes avec le chart Helm officiel de la communauté Prometheus.
# Ajouter le dépôt Helm de la communauté Prometheus $ helm repo add prometheus-community \ https://prometheus-community.github.io/helm-charts $ helm repo update # Créer un namespace de surveillance dédié $ kubectl create namespace monitoring # Installer la pile complète kube-prometheus-stack $ helm install prometheus-stack \ prometheus-community/kube-prometheus-stack \ --namespace monitoring \ --values values.yaml
Suivez des modèles éprouvés pour exécuter une pile de surveillance fiable, performante et sécurisée en production.
Configurez des Persistent Volumes pour Prometheus et Grafana afin de survivre aux redémarrages de pods sans perdre de métriques ni de tableaux de bord.
Surveillez et gérez la cardinalité des séries temporelles pour éviter les explosions de mémoire. Évitez les labels à haute cardinalité comme les identifiants uniques.
Exécutez plusieurs réplicas Prometheus avec anti-affinité de pods pour une surveillance sans interruption entre les domaines de défaillance.
Intégrez avec Thanos, Cortex ou Grafana Cloud via remote_write pour la rétention de données historiques au-delà de 30 jours.
Appliquez des politiques réseau, l'authentification OIDC/OAuth pour Grafana et un RBAC Kubernetes strict pour le namespace de surveillance.
Utilisez les CRDs ServiceMonitor et PodMonitor pour la découverte automatique de cibles de métriques basée sur les services — aucune configuration manuelle nécessaire.
Définissez des requêtes et limites CPU/mémoire pour chaque composant afin d'éviter la famine de ressources et les kills OOM en production.
Allez au-delà des métriques : ajoutez Loki pour les logs et Tempo + OpenTelemetry pour le traçage distribué dans une pile Grafana unifiée.
Tout ce que vous devez savoir sur le déploiement et la gestion du kube-prometheus-stack.