• /
  • EnglishEspañolFrançais日本語한국어Português
  • EntrarComeçar agora

Esta tradução de máquina é fornecida para sua comodidade.

Caso haja alguma divergência entre a versão em inglês e a traduzida, a versão em inglês prevalece. Acesse esta página para mais informações.

Criar um problema

Integração a Confluent cloud

O New Relic oferece uma integração para coletar seus dados de streaming gerenciados pelo Confluent Cloud para Apache Kafka . Este documento explica como ativar essa integração e descreve os dados que podem ser relatados.

Pré-requisitos

  • Uma conta New Relic
  • Uma conta ativa do Confluent Cloud
  • Uma chave de API e segredo da Confluent Cloud
  • MetricsViewer acesso na conta Confluent Cloud

Ativar integração

Para habilitar esta integração, vá para Integrations & Agents, selecione Confluent Cloud -> API Polling e siga as instruções.

Importante

Se você tiver a filtragem de IP configurada, adicione os seguintes endereços IP ao seu filtro.

  • 162.247.240.0/22

  • 152.38.128.0/19

    Para obter mais informações sobre as faixas IP New Relic para integração na nuvem, consulte este documento. Para obter instruções sobre como executar esta tarefa, consulte este documento.

Configuração e polling

Informações de pesquisa padrão para a integração do Confluent Cloud Kafka:

  • Intervalo de sondagem New Relic : 5 minutos
  • Intervalo de dados da Confluent Cloud: 1 minuto

Você pode alterar a frequência de pesquisa somente durante a configuração inicial.

Visualizar e usar dados

Você pode consultar e explorar seus dados usando o seguinte tipo de evento:

Entidade

Tipo de dados

Fornecedor

Cluster

Metric

Confluent

Conector

Metric

Confluent

ksql

Metric

Confluent

Pool de computação (Flink)

Metric

Confluent

Para saber mais sobre como usar seus dados, consulte Compreender e usar dados de integração.

Dados métricos

Esta integração registra dados do Confluent cloud Kafka para cluster, conector e ksql.

Dados de cluster

Métrica

Unidade

Descrição

cluster_load_percent

Por cento

Uma medida da utilização do cluster. O valor está entre 0,0 e 1,0. Apenas o cluster de nível dedicado possui esses dados métricos.

hot_partition_ingress

Por cento

Um indicador da presença de uma partição quente causada por taxas de transferência de ingresso. O valor é 1,0 quando uma partição ativa é detectada e vazio quando nenhuma partição ativa é detectada.

hot_partition_egress

Por cento

Um indicador da presença de uma partição quente causada por taxas de transferência de egresso. O valor é 1,0 quando uma partição ativa é detectada e vazio quando nenhuma partição ativa é detectada.

request_bytes

Bytes

A contagem delta do total de bytes de solicitação dos tipos de solicitação especificados enviados pela rede. Cada amostra é o número de bytes enviados desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

response_bytes

Bytes

A contagem delta do total de bytes de resposta dos tipos de resposta especificados enviados pela rede. Cada amostra é o número de bytes enviados desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

received_bytes

Bytes

A contagem delta de bytes dos dados dos clientes recebidos da rede. Cada amostra é o número de bytes recebidos desde a amostra de dados anterior. A contagem é amostrada a cada 60 segundos.

sent_bytes

Bytes

A contagem delta de bytes dos dados dos clientes enviados pela rede. Cada amostra é o número de bytes enviados desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

received_records

Contar

A contagem delta de registros recebidos. Cada amostra é o número de registros recebidos desde a amostra de dados anterior. A contagem é amostrada a cada 60 segundos.

sent_records

Contar

A contagem delta de registros enviados. Cada amostra é o número de registros enviados desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

partition_count

Contar

O número de partições.

consumer_lag_offsets

Milissegundos

O atraso entre o deslocamento confirmado de um membro do grupo e o limite máximo da partição.

successful_authentication_count

Contar

A contagem delta de autenticações bem-sucedidas. Cada amostra é o número de autenticações bem-sucedidas desde o ponto de dados anterior. A contagem amostrada a cada 60 segundos.

active_connection_count

Contar

A contagem de conexões autenticadas ativas.

Dados do conector

Métrica

Unidade

Descrição

sent_records

Contar

A contagem delta do número total de registros enviados das transformações e gravados no Kafka para o conector de origem. Cada amostra é o número de registros enviados desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

connector_status

Bit

O status de um conector dentro do sistema. Seu valor é sempre definido como 1, significando a presença do conector. O estado operacional atual do conector é identificado por meio da tag métrica.status.

connector_task_status

Bit

O status da tarefa de um conector dentro do sistema. Seu valor é sempre definido como 1, significando a presença da tarefa do conector. O estado operacional atual do conector é identificado por meio da tag métrica.status.

connector_task_batch_size_avg

Contar

O tamanho médio do lote (medido pela contagem de registros) por minuto. Para um conector de origem, indica o tamanho médio do lote enviado ao Kafka. Para um conector de coletor, indica o tamanho médio do lote lido pela tarefa de coletor.

connector_task_batch_size_max

Contar

O tamanho máximo do lote (medido pela contagem de registros) por minuto. Para um conector de origem, ele indica o tamanho máximo do lote enviado ao Kafka. Para um conector sink, indica o tamanho máximo do lote lido pela tarefa sink.

received_records

Contar

A contagem delta do número total de registros recebidos pelo conector do coletor. Cada amostra é o número de registros recebidos desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

sent_bytes

Bytes

A contagem delta do número total de registros recebidos pelo conector do coletor. Cada amostra é o número de registros recebidos desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

received_bytes

Bytes

A contagem delta do total de bytes recebidos pelo conector do coletor. Cada amostra é o número de bytes recebidos desde o ponto de dados anterior. A contagem é amostrada a cada 60 segundos.

dead_letter_queue_records

Contar

A contagem delta de registros de fila de letras mortas gravados no Kafka para o conector de recebimento. A contagem é amostrada a cada 60 segundos.

dados ksql

Métrica

Unidade

Descrição

streaming_unit_count

Contar

A contagem de Unidades de Streaming Confluentes (CSUs) para esta instância do KSQL. A contagem é amostrada a cada 60 segundos. A agregação de tempo implícita para esta métrica é MAX.

query_saturation

Por cento

A saturação máxima para uma determinada consulta ksqlDB em todos os nós. Retorna um valor entre 0 e 1, um valor próximo de 1 indica que o processamento da consulta do ksqlDB está com gargalo nos recursos disponíveis.

task_stored_bytes

Bytes

O tamanho dos armazenamentos de estado de uma determinada tarefa em bytes.

storage_utilization

Por cento

A utilização total de armazenamento para um determinado aplicativo ksqlDB.

consumed_total_bytes

Bytes

A contagem delta de bytes consumidos do Kafka pela consulta contínua durante o período solicitado.

produced_total_bytes

Bytes

A contagem delta de bytes produzidos no Kafka pela consulta contínua durante o período solicitado.

offsets_processed_total

Contar

A contagem delta de deslocamentos processados por uma determinada consulta, tarefa ou tópico, ou deslocamento.

committed_offset_lag

Milissegundos

O atraso atual entre o deslocamento confirmado e o deslocamento final para uma determinada consulta, tarefa ou tópico, ou deslocamento.

processing_errors_total

Contar

Contagem delta do número de erros de processamento de registros de uma consulta durante o período solicitado.

query_restarts

Contar

Contagem delta do número de falhas que fazem com que uma consulta seja reiniciada durante o período solicitado.

Métrica

Unidade

Descrição

compute_pool_utilization.cfu_limit

Contar

O número máximo possível de CFUs para o pool.

compute_pool_utilization.cfu_minutes_consumed

Contar

O número de CFUs consumidas desde a última medição.

compute_pool_utilization.current_cfus

Contar

O número absoluto de CFUs em um determinado momento.

current_input_watermark_milliseconds

Milissegundos

A última marca d'água que esta instrução recebeu (em milissegundos) para a tabela fornecida.

current_output_watermark_milliseconds

Milissegundos

A última marca d'água que esta instrução produziu (em milissegundos) para a tabela fornecida.

materialized_table_utilization.cfu_minutes_consumed

Contar

O número de CFUs consumidos desde a última medição.

materialized_table_utilization.current_cfus

Contar

O número absoluto de CFUs em um determinado momento.

max_input_lateness_milliseconds

Milissegundos

O atraso máximo observado em todos os registros processados no último minuto. Um registro é considerado atrasado se tiver um timestamp menor ou igual à marca d'água atual.

num_late_records_in

Contar

Número total de registros de entrada classificados como eventos atrasados. Estes são registros cujo timestamp é menor ou igual à marca d'água atual.

num_records_in

Contar

Número total de registros que esta instrução recebeu.

num_records_in_from_files

Contar

Número total de registros que esta instrução leu dos arquivos do Tableflow.

num_records_in_from_topics

Contar

Número total de registros que esta instrução leu de tópicos do Kafka.

num_records_out

Contar

Número total de registros que esta instrução emitiu.

operator.state_size_bytes

Bytes

O tamanho em bytes deste estado do operador.

pending_records

Contar

Quantidade total de registros disponíveis após o offset do consumidor em uma partição do Kafka em todos os operadores.

statement_status

Contar

Esta métrica monitora o status de uma instrução dentro do sistema. Seu valor é sempre definido como 1, indicando a presença da instrução. O estado operacional atual da instrução é identificado por meio da tag metric.status:

  • PENDENTE: A instrução foi submetida e o Flink está se preparando para começar a executar a instrução.
  • EXECUTANDO: O Flink está executando ativamente a instrução Flink.
  • CONCLUÍDO: A instrução concluiu todo o seu trabalho.
  • EXCLUINDO: A instrução está sendo excluída.
  • FALHA: A instrução encontrou um erro e não está mais em execução.
  • DEGRADADO: A instrução parece não estar saudável, por exemplo, nenhuma transação foi confirmada por um longo tempo, ou a instrução foi reiniciada com frequência recentemente.
  • PARANDO: A instrução está prestes a ser interrompida.
  • INTERROMPIDO: A instrução foi interrompida e não está mais em execução.

statement_utilization.cfu_minutes_consumed

Contar

O número de CFUs consumidos desde a última medição.

statement_utilization.current_cfus

Contar

O número absoluto de CFUs em um determinado momento.

Qual é o próximo

Dados e interface

Aprenda a usar New Relic para monitorar seu cluster Kafka

Copyright © 2026 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.