Google Search Console ajoute des exportations de données en bloc quotidiennes à BigQuery

Google déploiera une fonctionnalité au cours de la semaine prochaine qui vous permettra d’automatiser une exportation groupée quotidienne des données de performances de votre Search Console vers BigQuery. Cela vous permettra d’exécuter des requêtes complexes sur vos données vers un service de stockage externe, où vous pourrez effectuer une analyse plus approfondie de manière plus automatisée, a annoncé Google.

L’exportation. Google a déclaré que vous pouviez configurer une exportation dans Google Search Console “pour obtenir un vidage de données quotidien dans votre projet BigQuery”. Cela inclut toutes les données de performances de votre Search Console, mais pas les requêtes anonymisées. La limite quotidienne de lignes de données n’a pas d’incidence sur ces données, vous pouvez donc extraire davantage de données à l’aide de cette méthode.

La partie intéressante n’est pas seulement la réduction des limites de données, mais aussi le fait qu’il s’agit d’une exportation quotidienne continue qui peut être automatisée.

Qui cela aide. Google a déclaré que cela était probablement plus utile pour les sites plus grands avec des ensembles de données plus volumineux. “Cette exportation de données pourrait être particulièrement utile pour les grands sites Web avec des dizaines de milliers de pages, ou ceux qui reçoivent du trafic de dizaines de milliers de requêtes par jour (ou les deux !)”, a écrit Google.

Comment exporter. Google a créé un document d’aide pour vous expliquer comment exporter vos données vers BigQuery. Il s’agit d’un document quelque peu technique et vous aurez peut-être besoin de l’aide d’un développeur ou d’un programmeur. Les étapes de niveau supérieur de ce travail sont les suivantes :

  1. Préparez votre projet Cloud (dans Google Cloud Console) : cela inclut l’activation de l’API BigQuery pour votre projet et l’autorisation de votre compte de service Search Console.
  2. Définir la destination d’exportation (dans la Search Console) : cela inclut la fourniture de votre ID de projet Google Cloud et le choix d’un emplacement pour l’ensemble de données. Notez que seuls les propriétaires peuvent configurer une exportation de données en masse.

Cet export est quotidien, et la première fois il démarrera sous 48 heures. Si la simulation d’exportation échoue, vous devriez recevoir une alerte immédiate sur le problème détecté ; Voici une liste des erreurs d’exportation possibles.

Les données. Google a fourni une description rapide des trois tables qui seront à votre disposition :

  • searchdata_site_impression: ce tableau contient des données agrégées par propriété, y compris la requête, le pays, le type et l’appareil.
  • searchdata_url_impression: Ce tableau contient des données agrégées par URL, ce qui permet une vue plus détaillée des requêtes et des résultats enrichis.
  • ExportLog: Ce tableau est un enregistrement des données qui ont été enregistrées pour ce jour. Les échecs d’exportation ne sont pas enregistrés ici.
Tableau BigQuery d'exportation de données en masse 800 x 560

BigQuery. BigQuery est l’entrepôt de données sans serveur entièrement géré de Google qui permet une analyse évolutive sur des pétaoctets de données. Il s’agit d’un service qui prend en charge les requêtes à l’aide de ANSI SQL. Il dispose également de capacités d’apprentissage automatique intégrées.

Pourquoi nous nous soucions. Plus vous avez accès à des données sur votre propre plateforme, plus vous pouvez analyser vos performances de recherche. Cela signifie que vous pouvez découper et découper vos données d’une manière que vous ne pouviez probablement pas auparavant. Cela devrait vous permettre de développer de nouvelles idées pour améliorer votre site et votre expérience utilisateur.

En outre, les outils de données tiers peuvent trouver des moyens utiles de créer de nouveaux rapports avec cela. Google a déclaré: “Nous espérons qu’en rendant plus de données de recherche Google disponibles, les propriétaires de sites Web et les référenceurs seront en mesure de trouver plus d’opportunités de contenu en analysant les requêtes à longue traîne. Il sera également plus facile de joindre les informations au niveau de la page des systèmes internes aux résultats de recherche d’une manière plus efficace et complète. »

Laisser un commentaire