Bien que le New Relic Kubernetes OpenTelemetry Collector soit conçu pour être robuste et fiable, des problèmes peuvent toujours survenir. Ce document de dépannage fournit des étapes de dépannage pour les problèmes courants que vous pourriez rencontrer.
Problèmes généraux liés aux modules Collector
Consultez le log du Collector pod qui rencontre des problèmes. Exécutez cette commande :
$kubectl logs <otel-pod-name> -n newrelic
Pour activer le logging détaillé de niveau DEBUG
pour le dépannage, définissez le paramètre verboseLog
sur true
dans le diagramme Helm nr-k8s-otel-collector
.
échecs de collecte métrique
Problème : les métriques ne sont pas collectées ou envoyées à New Relic.
dépannage:
Vérifier la configuration du scraping : assurez-vous que la configuration de votre récepteur
prometheus
dans la configuration du collecteur (extraConfig
oudefault
) est correcte.bash$kubectl describe configmap prometheus-config -n monitoringVérifiez les annotations pod : si vous utilisez la découverte de service Prometheus, confirmez que votre pod d'application dispose des annotations
prometheus.io/scrape=true
correctes.bash$kubectl get pods --namespace=[your-namespace] --show-labels | grep 'prometheus.io/scrape=true'Testez la connectivité réseau : assurez-vous que le pod collecteur peut atteindre le point de terminaison métrique.
bash$kubectl exec [prometheus-pod-name] -- curl <http://service:port>
Les remplacements de configuration ne prennent pas effet
Problème : les configurations personnalisées ne sont pas correctement appliquées.
dépannage:
Vérifiez votre
values.yaml
: Vérifiez à nouveau votre fichiervalues.yaml
pour détecter les fautes de frappe ou les retraits incorrects dans la sectionextraConfig
.bash$cat helm-charts/charts/nr-k8s-otel-collector/values.yaml | grep extraConfigValider appliqué
ConfigMaps
: Le graphique Helm génèreConfigMaps
à partir de votrevalues.yaml
. Inspectez leConfigMap
résultant pour vous assurer que vos paramètres personnalisés sont présents.bash$kubectl describe configmap [collector-configmap-name] -n monitoring
Collector ne démarre pas
Problème : le pod collecteur OpenTelemetry ne parvient pas à s'initialiser ou plante à plusieurs reprises.
dépannage:
Inspecter les logs du pod : la première étape la plus courante. Recherchez des messages d'erreur spécifiques indiquant des erreurs de configuration ou des dépendances manquantes.
bash$kubectl logs [collector-pod-name] --namespace=monitoringVérifier les variables d’environnement : assurez-vous que les variables d’environnement requises sont correctement injectées.
bash$kubectl exec [collector-pod-name] -- env | grep -i [variable-name]
Pannes de réseau
Problème : le collecteur ne peut pas communiquer ou envoyer des données à New Relic.
dépannage:
Vérifiez la résolution DNS : assurez-vous que le pod collecteur peut résoudre les noms de service ou le point de terminaison New Relic.
bash$kubectl exec [collector-pod-name] -- nslookup service-nameExécutez des tests de connectivité : testez la connectivité aux services internes ou au point de terminaison New Relic externe.
bash$kubectl exec [collector-pod-name] -- curl -I <http://service-name:port>Examinez les politiques réseau : si vous avez des politiques réseau strictes dans votre cluster, assurez-vous qu'elles autorisent le trafic du pod OpenTelemetry Collector vers les services internes et le point de terminaison New Relic externe.
bash$kubectl describe networkpolicy -n [namespace]
Soutien
Si vous rencontrez des problèmes avec l'observabilité d'OpenTelemetry pour Kubernetes, reportez-vous à :
- Section Problèmes sur GitHub pour tout problème similaire ou envisagez d'ouvrir un nouveau problème.