Search Console : Comment récupérer les données avec R

Pour rappel, la Search Console est un outil à travers lequel les SEO s’appuient pour monitorer les performances des sites à travers différents metrics comme par exemple les clics, les impressions, les taux de clics, les positions, les keywords, (etc …). En somme, cet outil est une source incroyable de données. Le seul bémol, c’est la limitation. En effet la Search Console n’affiche que les performances (clics, impressions, etc …) pour les 1000 premières urls de votre site. Voici comment contourner cette limitation …

Script R : Exploiter l’API Search Console pour casser la limitation

setwd("define your working directory")

# Je charge dans une variable la liste des librairies que je vais utiliser
packages <- c("dplyr", "stringr, "searchConsoleR", "writexl")

# fonction permettant d'installer automatiquement les librairies necessaires &amp; non installees
if (length(setdiff(packages, rownames(installed.packages()))) > 0) {
  install.packages(setdiff(packages, rownames(installed.packages())))  
}

# Je charge les librairies dans l'environnement de travail
library(dplyr)
library(stringr)
library(writexl)
library(searchConsoleR)


# API Search Console
scr_auth()

start <- "2019-04-01"
end <- "2019-04-07"
max_results <- 100000

# Trafic depuis les données de la Search Console
df <- search_analytics("your_domain.com", 
                               startDate = start, endDate = end,
                               dimensions = c("page","query"),
                               dimensionFilterExp = "query!~brandedKW", #replace brandedKW by your brand name
                               rowLimit = max_results,
                               aggregationType = "byPage",
                               walk_data = "byBatch")

write_xlsx(df,"df_data.xlsx")

0 commentaires

Soumettre un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Découvrez aussi …

10 principes UX à connaître

10 principes UX à connaître

L'UX au service de votre site web Créer un site web n'est pas chose aisée. Cela exige un parfaite compréhension et analyse de la cible. Selon vous serez amener à adapter la navigation, le style ou encore le wording de votre site. Cependant, certaines règles restent...

How to create XML Sitemap with R

How to create XML Sitemap with R

XML sitemaps are must have when you want to make sure Google crawl your pages. To create XML sitemaps, it exists multiple free and paid solutions. Well, this article will show you how to create XML sitemaps for free with a simple R script. This method does not need to...

Créer un sitemap XML avec Python

Créer un sitemap XML avec Python

Qu'est-ce qu'un sitemap XML ? Un sitemap XML est un fichier qui vise à lister l'ensemble de vos urls importantes pour le SEO. Vous pouvez en créer plusieurs par thématique ou type de pages. Il existe certaines limitations concernant les sitemaps XML. Pour rappel, les...

Crawler un site avec R & RCrawler

Crawler un site avec R & RCrawler

Possible de crawler sans budget ? Oui avec RCrawler ! Crawler et scraper des données est devenu une pratique incontournable pour les SEO depuis plusieurs années. Des solutions payantes existent comme par exemple Screaming Frog, Oncrawl, Botify ou encore Seolyzer. Pour...