• /
  • EnglishEspañolFrançais日本語한국어Português
  • Se connecterDémarrer

Cette traduction automatique est fournie pour votre commodité.

En cas d'incohérence entre la version anglaise et la version traduite, la version anglaise prévaudra. Veuillez visiter cette page pour plus d'informations.

Créer un problème

Intégration cloudconfluente

New Relic propose une intégration pour collecter vos données de streaming gérées par Confluent Cloud pour Apache Kafka . Ce document explique comment activer cette intégration et décrit les données qui peuvent être signalées.

Prérequis

  • Un compte New Relic
  • Un compte Confluent Cloud actif
  • Une clé API et un secret Confluent Cloud
  • MetricsViewer accès sur le compte Confluent Cloud

Activer l'intégration

Pour activer cette intégration, accédez à Integrations & Agents, sélectionnez Confluent Cloud -> API Polling et suivez les instructions.

Important

Si vous avez configuré le filtrage IP, ajoutez les adresses IP suivantes à votre filtre.

  • 162.247.240.0/22

  • 152.38.128.0/19

    Pour plus d'informations sur les plages IP New Relic pour l'intégration cloud, reportez-vous à ce document. Pour obtenir des instructions sur la manière d'effectuer cette tâche, reportez-vous à ce document.

configuration et sondage

Informations d'interrogation par défaut pour l'intégration Confluent Cloud Kafka :

  • Intervalle d'interrogation de New Relic : 5 minutes
  • Intervalle de données Confluent Cloud : 1 minute

Vous ne pouvez modifier la fréquence d'interrogation que lors de la configuration initiale.

Afficher et utiliser les données

Vous pouvez interroger et explorer vos données en utilisant le type d'événement suivant :

Entité

Type de données

Fournisseur

Cluster

Metric

Confluent

Pour en savoir plus sur l’utilisation de vos données, consultez Comprendre et utiliser les données d’intégration.

données métriques

Cette intégration enregistre les données Amazon Managed Kafka pour cluster, la partition et l'entité de rubrique.

métrique

Unité

Description

cluster_load_percent

Pour cent

Une mesure de l'utilisation du cluster. La valeur est comprise entre 0,0 et 1,0. Seul le cluster de niveau dédié possède ces données métriques.

hot_partition_ingress

Pour cent

Un indicateur de la présence d’une partition chaude causée par le débit d’entrée. La valeur est 1,0 lorsqu'une partition chaude est détectée et vide lorsqu'aucune partition chaude n'est détectée.

hot_partition_egress

Pour cent

Un indicateur de la présence d'une partition chaude causée par le débit de sortie. La valeur est 1,0 lorsqu'une partition chaude est détectée et vide lorsqu'aucune partition chaude n'est détectée.

request_bytes

Octets

Le nombre delta d'octets de requête totaux provenant des types de requêtes spécifiés envoyés sur le réseau. Chaque échantillon correspond au nombre d'octets envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

response_bytes

Octets

Le nombre delta d'octets de réponse totaux provenant des types de réponse spécifiés envoyés sur le réseau. Chaque échantillon correspond au nombre d'octets envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

received_bytes

Octets

Le nombre delta d'octets de données des clients reçues du réseau. Chaque échantillon correspond au nombre d'octets reçus depuis l'échantillon de données précédent. Le comptage est échantillonné toutes les 60 secondes.

sent_bytes

Octets

Le nombre delta d'octets de données des clients envoyés sur le réseau. Chaque échantillon correspond au nombre d'octets envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

received_records

Compter

Le nombre delta d'enregistrements reçus. Chaque échantillon correspond au nombre d'enregistrements reçus depuis l'échantillon de données précédent. Le comptage est échantillonné toutes les 60 secondes.

sent_records

Compter

Le nombre delta d'enregistrements envoyés. Chaque échantillon correspond au nombre d'enregistrements envoyés depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

partition_count

Compter

Le nombre de partitions.

consumer_lag_offsets

Millisecondes

Le décalage entre le décalage validé d'un membre du groupe et le niveau d'eau élevé de la partition.

successful_authentication_count

Compter

Le nombre delta d'authentifications réussies. Chaque échantillon correspond au nombre d'authentifications réussies depuis le point de données précédent. Le comptage est échantillonné toutes les 60 secondes.

active_connection_count

Compter

Le nombre de connexions authentifiées actives.

Et ensuite ?

Data and UI

Découvrez comment utiliser New Relic pour monitorer votre cluster Kafka

Droits d'auteur © 2025 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.