• /
  • EnglishEspañolFrançais日本語한국어Português
  • Se connecterDémarrer

Cette traduction automatique est fournie pour votre commodité.

En cas d'incohérence entre la version anglaise et la version traduite, la version anglaise prévaudra. Veuillez visiter cette page pour plus d'informations.

Créer un problème

Intégration cloudconfluente

New Relic propose une intégration pour collecter vos données de streaming gérées par Confluent Cloud pour Apache Kafka . Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées.

Prérequis

  • Un compte New Relic
  • Un compte Confluent Cloud actif
  • Une clé API et un secret Confluent Cloud
  • MetricsViewer accès sur le compte Confluent Cloud

Activer l'intégration

Pour activer cette intégration, accédez à Integrations & Agents, sélectionnez Confluent Cloud -> API Polling et suivez les instructions.

Important

Si vous avez configuré le filtrage IP, ajoutez les adresses IP suivantes à votre filtre.

  • 162.247.240.0/22

  • 152.38.128.0/19

    Pour plus d'informations sur les plages IP New Relic pour l'intégration cloud, reportez-vous à ce document. Pour obtenir des instructions sur la manière d'effectuer cette tâche, reportez-vous à ce document.

configuration et sondage

Informations d'interrogation par défaut pour l'intégration Confluent Cloud Kafka :

  • Intervalle d'interrogation de New Relic : 5 minutes
  • Intervalle de données Confluent Cloud : 1 minute

Vous ne pouvez modifier la fréquence d'interrogation que lors de la configuration initiale.

Afficher et utiliser les données

Vous pouvez interroger et explorer vos données en utilisant le type d'événement suivant :

Entité

Type de données

Fournisseur

Cluster

Metric

Confluent

connecteur

Metric

Confluent

ksql

Metric

Confluent

Pool de calcul (Flink)

Metric

Confluent

Pour en savoir plus sur l’utilisation de vos données, consultez Comprendre et utiliser les données d’intégration.

données métriques

Cette intégration enregistre les données Confluent cloud Kafka pour cluster, le connecteur et ksql.

Données Cluster

métrique

Unité

Description

cluster_load_percent

Pour cent

Une mesure de l'utilisation du cluster. La valeur est comprise entre 0,0 et 1,0. Seul le cluster de niveau dédié possède ces données métriques.

hot_partition_ingress

Pour cent

Un indicateur de la présence d’une partition chaude causée par le débit d’entrée. La valeur est 1,0 lorsqu'une partition chaude est détectée et vide lorsqu'aucune partition chaude n'est détectée.

hot_partition_egress

Pour cent

Un indicateur de la présence d'une partition chaude causée par le débit de sortie. La valeur est 1,0 lorsqu'une partition chaude est détectée et vide lorsqu'aucune partition chaude n'est détectée.

request_bytes

Octets

Le nombre delta d'octets de requête totaux provenant des types de requêtes spécifiés envoyés sur le réseau. Chaque échantillon correspond au nombre d'octets envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

response_bytes

Octets

Le nombre delta d'octets de réponse totaux provenant des types de réponse spécifiés envoyés sur le réseau. Chaque échantillon correspond au nombre d'octets envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

received_bytes

Octets

Le nombre delta d'octets de données des clients reçues du réseau. Chaque échantillon correspond au nombre d'octets reçus depuis l'échantillon de données précédent. Le comptage est échantillonné toutes les 60 secondes.

sent_bytes

Octets

Le nombre delta d'octets de données des clients envoyés sur le réseau. Chaque échantillon correspond au nombre d'octets envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

received_records

Compter

Le nombre delta d'enregistrements reçus. Chaque échantillon correspond au nombre d'enregistrements reçus depuis l'échantillon de données précédent. Le comptage est échantillonné toutes les 60 secondes.

sent_records

Compter

Le nombre delta d'enregistrements envoyés. Chaque échantillon correspond au nombre d'enregistrements envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

partition_count

Compter

Le nombre de partitions.

consumer_lag_offsets

Millisecondes

Le décalage entre le décalage validé d'un membre du groupe et le niveau d'eau élevé de la partition.

successful_authentication_count

Compter

Le nombre delta d'authentifications réussies. Chaque échantillon correspond au nombre d'authentifications réussies depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

active_connection_count

Compter

Le nombre de connexions authentifiées actives.

Données du connecteur

métrique

Unité

Description

sent_records

Compter

Le nombre delta du nombre total d'enregistrements envoyés à partir des transformations et écrits dans Kafka pour le connecteur source. Chaque échantillon correspond au nombre d'enregistrements envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

connector_status

Bit

L'état d'un connecteur dans le système. Sa valeur est toujours fixée à 1, signifiant la présence du connecteur. L'état opérationnel actuel du connecteur est identifié via la tag métrique.status.

connector_task_status

Bit

L'état de la tâche d'un connecteur au sein du système. Sa valeur est toujours définie sur 1, signifiant la présence de la tâche du connecteur. L'état opérationnel actuel du connecteur est identifié via la tag métrique.status.

connector_task_batch_size_avg

Compter

La taille moyenne du lot (mesurée par le nombre d'enregistrements) par minute. Pour un connecteur source, il indique la taille moyenne du lot envoyé à Kafka. Pour un connecteur de récepteur, il indique la taille moyenne du lot lu par la tâche de récepteur.

connector_task_batch_size_max

Compter

La taille maximale de lot (mesurée en nombre d'enregistrements) par minute. Pour un connecteur source, cela indique la taille maximale du lot envoyé à Kafka. Pour un connecteur sink, il indique la taille maximale du lot lue par la tâche sink.

received_records

Compter

Le nombre delta du nombre total d'enregistrements reçus par le connecteur récepteur. Chaque échantillon correspond au nombre d’enregistrements reçus depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

sent_bytes

Octets

Le nombre delta du nombre total d'enregistrements reçus par le connecteur récepteur. Chaque échantillon correspond au nombre d’enregistrements reçus depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

received_bytes

Octets

Le nombre delta d'octets totaux reçus par le connecteur récepteur. Chaque échantillon correspond au nombre d'octets reçus depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

dead_letter_queue_records

Compter

Le nombre delta d'enregistrements de file d'attente de lettres mortes écrits dans Kafka pour le connecteur de récepteur. Le comptage est échantillonné toutes les 60 secondes.

données ksql

métrique

Unité

Description

streaming_unit_count

Compter

Nombre d'unités de streaming confluentes (CSU) pour cette instance KSQL. Le comptage est échantillonné toutes les 60 secondes. L'agrégation temporelle implicite pour cette métrique est MAX.

query_saturation

Pour cent

La saturation maximale pour une requête ksqlDB donnée sur tous les nœuds. Renvoie une valeur comprise entre 0 et 1, une valeur proche de 1 indique que le traitement des requêtes ksqlDB est goulot d'étranglement sur les ressources disponibles.

task_stored_bytes

Octets

La taille de l'état d'une tâche donnée est stockée en octets.

storage_utilization

Pour cent

L'utilisation totale du stockage pour une application ksqlDB donnée.

consumed_total_bytes

Octets

Le nombre delta d'octets consommés par Kafka par requête continue sur la période demandée.

produced_total_bytes

Octets

Le nombre delta d'octets produits vers Kafka par requête continue sur la période demandée.

offsets_processed_total

Compter

Le nombre delta de décalages traités par une requête, une tâche, un sujet ou un décalage donné.

committed_offset_lag

Millisecondes

Le décalage actuel entre le décalage validé et le décalage de fin pour une requête, une tâche, une rubrique ou un décalage donné.

processing_errors_total

Compter

Nombre delta du nombre d'erreurs de traitement d'enregistrement d'une requête sur la période demandée.

query_restarts

Compter

Nombre delta du nombre d'échecs qui provoquent le redémarrage d'une requête sur la période demandée.

métrique

Unité

Description

compute_pool_utilization.cfu_limit

Compter

Le nombre maximum possible de CFU pour le pool.

compute_pool_utilization.cfu_minutes_consumed

Compter

Le nombre de CFU consommés depuis la dernière mesure.

compute_pool_utilization.current_cfus

Compter

Le nombre absolu de CFU à un moment donné.

current_input_watermark_milliseconds

Millisecondes

Le dernier watermark que cette instruction a reçu (en millisecondes) pour la table donnée.

current_output_watermark_milliseconds

Millisecondes

Le dernier watermark que cette instruction a produit (en millisecondes) pour la table donnée.

materialized_table_utilization.cfu_minutes_consumed

Compter

Le nombre de CFU consommés depuis la dernière mesure.

materialized_table_utilization.current_cfus

Compter

Le nombre absolu de CFU à un moment donné.

max_input_lateness_milliseconds

Millisecondes

Le retard maximum observé sur tous les enregistrements traités au cours de la dernière minute. Un enregistrement est considéré comme en retard s'il a un horodatage inférieur ou égal au filigrane actuel.

num_late_records_in

Compter

Nombre total d'enregistrements d'entrée classés comme événements tardifs. Ce sont des enregistrements dont l'horodatage est inférieur ou égal au watermark actuel.

num_records_in

Compter

Nombre total d'enregistrements que cette instruction a reçus.

num_records_in_from_files

Compter

Nombre total d'enregistrements que cette instruction a lus à partir des fichiers Tableflow.

num_records_in_from_topics

Compter

Nombre total d'enregistrements que cette instruction a lus depuis les topics Kafka.

num_records_out

Compter

Nombre total d'enregistrements que cette instruction a émis.

operator.state_size_bytes

Octets

La taille en octets de l'état de cet opérateur.

pending_records

Compter

Nombre total d'enregistrements disponibles après l'offset du consommateur dans une partition Kafka sur tous les opérateurs.

statement_status

Compter

Cette métrique monitore le statut d'une instruction au sein du système. Sa valeur est toujours définie sur 1, indiquant la présence de l'instruction. L'état opérationnel actuel de l'instruction est identifié par le tag metric.status :

  • EN ATTENTE : L'instruction a été soumise et Flink se prépare à lancer l'exécution de l'instruction.
  • RUNNING : Flink exécute activement l'instruction Flink.
  • TERMINÉ : L'instruction a terminé tout son travail.
  • SUPPRESSION : L'instruction est en cours de suppression.
  • ÉCHEC : L'instruction a rencontré une erreur et n'est plus en cours d'exécution.
  • DÉGRADÉ : L'instruction semble défaillante, par exemple, aucune transaction n'a été validée depuis longtemps, ou l'instruction a fréquemment redémarré récemment.
  • ARRÊT EN COURS : L'instruction est sur le point d'être arrêtée.
  • ARRÊTÉ : L'instruction a été arrêtée et n'est plus en cours d'exécution.

statement_utilization.cfu_minutes_consumed

Compter

Le nombre de CFU consommés depuis la dernière mesure.

statement_utilization.current_cfus

Compter

Le nombre absolu de CFU à un moment donné.

Et ensuite ?

Données et interface utilisateur

Découvrez comment utiliser New Relic pour monitorer votre cluster Kafka

Droits d'auteur © 2026 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.