Cette traduction automatique est fournie pour votre commodité.
En cas d'incohérence entre la version anglaise et la version traduite, la version anglaise prévaudra. Veuillez visiter cette page pour plus d'informations.
Sélectionnez le compte New Relic vers lequel vous souhaitez transférer le log et cliquez sur Continue.
Facultatif : configurez les métadonnées (paires attribute-value) à inclure dans chaque événement de log envoyé à l'URL d'ingestion que vous générerez à l'étape suivante.
Cliquez sur Generate URL.
Copiez votre ingest URL nouvellement généré et conservez-le dans un endroit sûr.
Vous utiliserez votre nouvelle URL d’ingestion pour configurer une rubrique Pub/Sub qui envoie le log à New Relic.
Ensuite, vous allez créer la rubrique GCP Pub/Sub que votre URL d’ingestion utilisera.
Entrez un Sink name et Sink description, puis cliquez sur Next.
Sous Select sink service, sélectionnez Cloud Pub/Sub topic et sélectionnez la rubrique Pub/Sub que vous avez créée précédemment.
Configurez les filtres restants selon vos besoins, puis cliquez sur Create sink pour terminer la configuration.
Utiliser le travail Dataflow
Pour envoyer votre log GCP à New Relic à l’aide d’une tâche Dataflow, vous utiliserez notre modèle Dataflow. Avant de commencer, assurez-vous que vous disposez des outils suivants sur votre ordinateur local :
Le Google Cloud SDK, qui comprend les outils de ligne de commande gcloud et gsutil
Exécutez la commande suivante et suivez l’invite pour vous connectez à GCP et sélectionner votre projet cloud :
bash
$
gcloud init
À l'aide de l'assistant, vous sélectionnerez un projet cloud à utiliser et vous pourrez éventuellement sélectionner une région et une zone de calcul par défaut pour les ressources que vous créez à l'aide de gcloud ou gsutil. Nous ne présumerons pas de projet, d’emplacement ou de région par défaut pour les commandes suivantes.
Clonez le référentiel GitHub DataflowTemplates à l'aide de la commande suivante :
Entrez dans le répertoire que vous venez de créer :
bash
$
cd DataflowTemplates
Passez ensuite à la section suivante pour exécuter des commandes supplémentaires.
Pour définir la configuration requise pour compiler et exécuter le transitaire Dataflow, exécutez les commandes suivantes dans votre répertoire DataflowTemplates . Les seules valeurs requises sont :
PROJECT_ID
BUCKET_NAME
NR_LICENSE_KEY
INPUT_SUBSCRIPTION_NAME
Vous pouvez laisser les autres valeurs par défaut telles quelles.
# The Google Cloud Platform project id where your logs are and where the Dataflow log forwarder will run
PROJECT_ID=<your_project_id>
# Temporary bucket that will store intermediary files as a result of compiling the Dataflow template. Its name must be unique.
gcloud iam service-accounts keys create ${SERVICE_ACCOUNT_KEY_FILENAME} --iam-account=${SERVICE_ACCOUNT_NAME}@${PROJECT_ID}.iam.gserviceaccount.com
Faites référence à votre fichier de clé de compte de service à l’aide de la variable d’environnement GOOGLE_APPLICATION_CREDENTIALS , car elle sera utilisée par les commandes suivantes :
Voici une référence des options disponibles que vous pouvez utiliser pour optimiser davantage l'exécution de votre travail de redirecteur de logDataflow.
Paramètre de configuration
Description
licenseKeyRequired.
New Relic .
inputSubscriptionRequired.
L'abonnement Cloud Pub/Sub utilisé pour consommer le log. Utilisez ce format :
URL de New Relic pour l'API du log. Cet itinéraire provient du VPC où s'exécute le pipeline Dataflow.
Défaut:
https://log-api.newrelic.com/log/v1
Région Europe :
https://log-api.eu.newrelic.com/log/v1
batchCount
Nombre maximal d'enregistrements log à regrouper dans un lot avant de les envoyer à New Relic dans une seule requête HTTP POST.
Défaut: 100
flushDelay
Nombre de secondes à attendre pour un log supplémentaire (jusqu'à batchCount) depuis la réception du dernier enregistrement de log dans un lot non complet, avant de les vider dans New Relic.
Défaut: 2
parallelism
Nombre maximal de requests parallèles.
Défaut: 1
disableCertificateValidation
Désactiver la validation du certificat SSL.
Défaut: false
useCompression
Compressez (dans GZIP) la charge envoyée à l'API de Log de New Relic.
Défaut: true
tokenKMSEncryptionKey
Clé de chiffrement KMS pour le jeton. Utilisez ce format :
Obtenez une visibilité plus approfondie sur les données de performances de votre application et de votre plateforme en transmettant votre log avec nos capacités de logs en contexte .
Pour désactiver les fonctionnalités de transfert de log , suivez les procédures standard dans la documentation de Google Cloud Platform . Vous n'avez rien d'autre à faire dans New Relic.