• /
  • EnglishEspañolFrançais日本語한국어Português
  • Se connecterDémarrer

Cette traduction automatique est fournie pour votre commodité.

En cas d'incohérence entre la version anglaise et la version traduite, la version anglaise prévaudra. Veuillez visiter cette page pour plus d'informations.

Créer un problème

Intégration monitoring Google VertexAI

L'intégration de New Relic inclut une intégration permettant de signaler vos données GCP Run à nos produits. Ici, nous expliquons comment activer l'intégration et quelles données elle collecte.

Activer l'intégration

Pour activer l'intégration, suivez les procédures standard pour connecter votre service GCP à New Relic.

configuration et sondage

Vous pouvez modifier la fréquence d'interrogation et filtrer les données à l'aide des options de configuration.

Informations d'interrogation par défaut pour l'intégration GCP Run :

  • Intervalle d'interrogation de New Relic : 5 minutes

Rechercher et utiliser des données

Pour trouver vos données d’intégration, accédez à one.newrelic.com > All capabilities > Infrastructure > GCP et sélectionnez une intégration.

Les données sont attachées aux types d’événements suivants :

Entité

Type d'événement

Fournisseur

Point de terminaison

GcpVertexAiEndpointSample

GcpVertexAiEndpoint

magasin de fonctionnalités

GcpVertexAiFeaturestoreSample

GcpVertexAiFeaturestore

Fonctionnalité Boutique en ligne

GcpVertexAiFeatureOnlineStoreSample

GcpVertexAiFeatureOnlineStore

Emplacement

GcpVertexAiLocationSample

GcpVertexAiLocation

Indice

GcpVertexAiIndexSample

GcpVertexAiIndex

PipelineJob

GcpVertexAiPipelineJobSample

GcpVertexAiPipelineJob

Pour en savoir plus sur l’utilisation de vos données, consultez Comprendre et utiliser les données d’intégration.

données métriques

Cette intégration collecte des données GCP pour VertexAI.

Données du point de terminaison VertexAI

métrique

Unité

Description

prediction.online.accelerator.duty_cycle

Pour cent

Fraction moyenne de temps au cours de la période d'échantillonnage précédente pendant laquelle les accélérateurs étaient en cours de traitement actif.

prediction.online.accelerator.memory.bytes_used

Octets

Quantité de mémoire accélératrice allouée par la réplique du modèle Dél.

prediction.online.error_count

Compter

Nombre d'erreurs de prédiction en ligne.

prediction.online.memory.bytes_used

Octets

Quantité de mémoire allouée par la réplique du modèle Décal et actuellement utilisée.

prediction.online.network.received_bytes_count

Octets

Nombre d'octets reçus sur le réseau par la réplique du modèle Déploy.

prediction.online.network.sent_bytes_count

Octets

Nombre d'octets envoyés sur le réseau par la réplique du modèle déployé.

prediction.online.prediction_count

Compter

Nombre de prédictions en ligne.

prediction.online.prediction_latencies

Millisecondes

Latence de prédiction en ligne du modèle déployé.

prediction.online.private.prediction_latencies

Millisecondes

Latence de prédiction en ligne du modèle de déploiement privé.

prediction.online.replicas

Compter

Nombre de répliques actives utilisées par le modèle déployé.

prediction.online.response_count

Compter

Nombre de codes de réponse de prédiction en ligne différents.

prediction.online.target_replicas

Compter

nombre cible de répliques actives nécessaires pour le modèle déployé.

Données du magasin de fonctionnalités VertexAI

métrique

Unité

Description

featurestore.cpu_load

Pour cent

La charge CPU moyenne pour un nœud dans le stockage en ligne Featuresstore.

featurestore.cpu_load_hottest_node

Pour cent

La charge CPU pour le nœud le plus chaud du stockage en ligne Featuresstore.

featurestore.node_count

Compter

Le nombre de nœuds pour le stockage en ligne Featuresstore.

featurestore.online_entities_updated

Compter

Numéro d'entité mis à jour sur le stockage en ligne Featuresstore.

featurestore.online_serving.latencies

Millisecondes

Latence de service en ligne par EntityType.

featurestore.online_serving.request_bytes_count

Octets

Taille de la demande par EntityType.

featurestore.online_serving.request_count

Compter

Nombre de services en ligne de Featuresstore par EntityType.

featurestore.online_serving.response_size

Octets

Taille de la réponse par EntityType.

featurestore.storage.billable_processed_bytes

Octets

Nombre d'octets facturés pour les données hors ligne traitées.

featurestore.storage.stored_bytes

Octets

Octets stockés dans Featuresstore.

featurestore.streaming_write.offline_processed_count

Compter

Nombre de requests d'écriture en streaming traitées pour le stockage hors ligne.

featurestore.streaming_write.offline_write_delays

Secondes

Temps (en secondes) écoulé depuis que l'API d'écriture est appelée jusqu'à ce qu'elle soit écrite dans le stockage hors ligne.

Données de VertexAI FeatureOnlineStore

métrique

Unité

Description

featureonlinestore.online_serving.request_count

Compter

Nombre de portions par FeatureView.

featureonlinestore.online_serving.serving_bytes_count

Octets

Taille de la réponse de diffusion par FeatureView.

featureonlinestore.online_serving.serving_latencies

Millisecondes

Latence de service en ligne par FeatureView.

featureonlinestore.running_sync

Millisecondes

Nombre de synchronisations en cours d'exécution à un moment donné.

featureonlinestore.serving_data_ages

Secondes

Mesure de l'âge des données de service en secondes.

featureonlinestore.serving_data_by_sync_time

Compter

Répartition des données de la fonctionnalité Boutique en ligne par horaire synchronisé.

featureonlinestore.storage.bigtable_cpu_load

Pour cent

La charge CPU moyenne des nœuds dans la fonctionnalité Boutique en ligne.

featureonlinestore.storage.bigtable_cpu_load_hottest_node

Pour cent

La charge CPU du nœud le plus chaud de la fonctionnalité Online Store.

featureonlinestore.storage.bigtable_nodes

Compter

Le nombre de nœuds pour la fonctionnalité Boutique en ligne (Bigtable).

featureonlinestore.storage.stored_bytes

Compter

Octets stockés dans la fonctionnalité Online Store.

Données de localisation VertexAI

métrique

Unité

Description

online_prediction_requests_per_base_model

Compter

Nombre de requests par modèle de base.

quota.online_prediction_requests_per_base_model.exceeded

Compter

Nombre de tentatives de dépassement de la limite de la métrique de quota.

quota.online_prediction_requests_per_base_model.limit

Compter

Limite actuelle sur la métrique de quota.

quota.online_prediction_requests_per_base_model.usage

Compter

Utilisation actuelle de la métrique de quota.

executing_vertexai_pipeline_jobs

Compter

Nombre de tâches de pipeline en cours d'exécution.

executing_vertexai_pipeline_tasks

Compter

Nombre de tâches de pipeline en cours d'exécution.

Données de l'index VertexAI

métrique

Unité

Description

matching_engine.stream_update.datapoint_count

Compter

Nombre de points de données insérés ou supprimés avec succès.

matching_engine.stream_update.latencies

Millisecondes

La latence entre l'utilisateur reçoit un UpsertDatapointsResponse ou RemoveDatapointsResponse et cette mise à jour prend effet.

matching_engine.stream_update.request_count

Compter

Nombre de requests de mise à jour de flux.

Données sur les tâches Pipeline VertexAI

métrique

Unité

Description

pipelinejob.duration

Secondes

Secondes d'exécution du travail du pipeline en cours d'exécution (de la création à la fin).

pipelinejob/task_completed_count

Compter

Nombre total de tâches Pipeline terminées.

Droits d'auteur © 2025 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.