L'intégration de New Relic inclut une intégration permettant de signaler vos données GCP Dataflow à nos produits. Nous expliquons ici comment activer l'intégration et quelles données elle collecte.
Activer l'intégration
Pour activer l'intégration, suivez les procédures standard pour connecter votre service GCP à New Relic.
configuration et sondage
Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide des options de configuration.
Informations d'interrogation par défaut pour l'intégration GCP Dataflow :
- Intervalle d'interrogation de New Relic : 5 minutes
Rechercher et utiliser des données
Pour trouver vos données d’intégration, accédez à one.newrelic.com > All capabilities > Infrastructure > GCP et sélectionnez une intégration.
Les données sont jointes au type d’événement suivant :
Entité | Type d'événement | Fournisseur |
---|---|---|
Emploi |
|
|
Pour en savoir plus sur l’utilisation de vos données, consultez Comprendre et utiliser les données d’intégration.
données métriques
Cette intégration collecte les données GCP Dataflow pour Job.
Données de travail Dataflow
métrique | Unité | Description |
---|---|---|
| Octets | Les octets facturables de données de mélange traitées par cette tâche Dataflow. |
| Compter | Le nombre de vCPU actuellement utilisés par ce travail Dataflow. Il s’agit du nombre actuel de travailleurs multiplié par le nombre de vCPU par travailleur. |
| Compter | Les emplacements de mélange actuels utilisés par cette tâche Dataflow. |
| Secondes | L'âge (temps écoulé depuis l'horodatage de l'événement) jusqu'auquel toutes les données ont été traitées par le pipeline. |
| Secondes | Durée pendant laquelle l'exécution actuelle de ce pipeline a été dans l'état En cours d'exécution jusqu'à présent, en secondes. Lorsqu'une exécution est terminée, la durée de cette exécution reste la même jusqu'au début de l'exécution suivante. |
| Compter | Nombre d'éléments ajoutés à la collection jusqu'à présent. |
| Octets | Nombre estimé d'octets ajoutés à la pcollection jusqu'à présent. Dataflow calcule la taille moyenne codée des éléments dans une pcollection et la multiplie par le nombre d'éléments. |
| Compter | Ce travail a échoué ? |
| Secondes | L'âge (temps écoulé depuis l'horodatage de l'événement) jusqu'auquel toutes les données ont été traitées par cette étape du pipeline. |
| Secondes | La durée maximale actuelle pendant laquelle un élément de données a été traité ou en attente de traitement, en secondes, par étape du pipeline. |
| Secondes | La durée maximale actuelle pendant laquelle un élément de données a été traité ou en attente de traitement, en secondes. |
| Autre | Le nombre total de Go de secondes de mémoire allouées à cette tâche Dataflow. |
| Autre | Le nombre total de Go de secondes pour tous les disques persistants utilisés par tous les travailleurs associés à cette tâche Dataflow. |
| Octets | Le nombre total d'octets de données de mélange traités par ce travail Dataflow. |
| Octets | Le nombre total d'octets de données de streaming traités par ce travail Dataflow. |
| Secondes | Le nombre total de secondes vCPU utilisées par cette tâche Dataflow. |
| Compter | Une métrique de compteur définie par l'utilisateur. |