oncrawl webinar - la segmentation avancée
TRANSCRIPT
Webinaire
#oncrawlwebinar
Segmentation avancées et
code source : méthodologie
Par Erlé Alberton,
Customer Success Manager
Webinar
#oncrawlwebinar
J’adore quand un segment est tiré de votre code source …
ERLE
ALBERTONCUSTOMER
SUcCESS manager10 ans de dev / 5 ans de SEO dont 2
ans en tant que responsable SEO des
boutiques en ligne Orange et Sosh
spécialiste schema.orgseo monk
ONCRAWL
TRAinER
customer climax & GOOD IDEAS
Webinar
#oncrawlwebinar
1. Introduction aux segmentations
2. La segmentation classique par urls
3. La segmentation custom filtrée sur les métriques
... des segmentations cadeaux
4. Les Custom Fields : créer une data personnalisée et dynamique
5. Quelles données extraire du code source REGEX ou XPATH comment choisir ?
6. Tests, Tips and Tricks
7. La donnée dans le Data Explorer et ses Filters
8. Catégorisation sur les Custom Fields
9. Utiliser les nouvelles segmentations
De la méthode à l’exploitation
Webinar
#oncrawlwebinar
Introduction aux segmentations
La segmentation permet de regarder vos data OnCrawl sous
différents angles
Elles peuvent être faites sur n’importe quelle donnée présente dans le Data Explorer
Elles sont dynamiques car à chaque crawl les ensembles de pages sont mis à jour automatiquement
Oncrawl permet de créer 10 sets de 15 groupes de pages (plus sur simple demande à votre CS)
Cela permet de switcher directement d’une vue à l’autre durant votre utilisation de l’application
Tout est dynamique et instantanément disponible
utiliser la segmentation pour faire des focus durant vos audits techniques
Webinar
#oncrawlwebinar
Introduction aux segmentations
Exemple de segmentations :
Bot Hits/day GA session Range/day SEO visits/day
http://textup.fr/225313rV http://textup.fr/225314Kwhttp://textup.fr/225315r2
Webinar
#oncrawlwebinar
Introduction aux segmentations
Exemple de représentations
Bot Hits/day vs Depth
Average inlinks vs GA session Range/day
SEO visits/day vs Loading time
Webinar
#oncrawlwebinar
La segmentation classique par urls
C’est simple, chaque groupe répond à un filtre fait
sur les URLs (contains, start with, REGEX,
querystring,…)
Mais vous pouvez créer des ensembles plus détaillés
de votre site (AMP, paginations, …)
La segmentation la plus connue est la « default » créée
automatiquement par notre Bot lors du Crawl
Elle est basée sur le #1 répertoire de l’URL
Webinar
#oncrawlwebinar
La segmentation custom filtrée sur les métriques
Il suffit de savoir sur quel métrique OnCrawl le
groupe de page va s’appuyer et de définir la règle
de filtrage
http://textup.fr/225316Ve
Filtre sur les clusters de duplicate content et la « canonical evaluation »
Webinar
#oncrawlwebinar
segmentation « indexability »
• no index + not visited
• indexable + not hited
• denied by robots + not visited
• complient + hited + visited
• not complient + visited
• orphan + hited + not visited
• orphan + hited + visited
• orphan + not hited
http://textup.fr/206734bU
Utiliser l’outil d’édition du JSON pour
exporter/importer vos segmentations
Webinar
#oncrawlwebinar
Les Custom Fields : data personnalisée & dynamique
Les Custom Fields sont une option (gratuite et illimitée)
qui permet d'extraire une partie du code source pendant
la phase de crawl
La configuration des Custom Fields est présente dans
l'interface Crawl Settings. Avant de lancer le crawl il faut
paramétrer les Customs Fields
Lorsque vous définissez un nouveau paramètre de crawl, vous pouvez ajouter des règles
d'extraction spécifiques pour récupérer les données lorsque la page est analysée
Ces données vous sont propre et l’extraction peut se faire par REGEX ou XPATH
Webinar
#oncrawlwebinar
Quelles données extraire du code source ?
Utiliser XPATH pour une ou des balises HTML
XPATH est un langage de requête basé sur l'arborescence DOM
Dans l’analyseur de code de Chrome, copier/coller le Xpath
Webinar
#oncrawlwebinar
Quelles données extraire du code source ?
Utiliser REGEX pour une chaine de caractères
Trouver la chaine à extraire dans le code source
Rappelez-vous que vous devez échapper aux caractères spéciaux comme? . * ()[] { } avec un \
Vous utilisez une catégorisation de vos types de pages liée à un DataLayer
Cette information est très pertinente pour votre segmentation
votre modèle de donnée peut-être lié à celui d’OnCrawl grâce à des champs pivots
Webinar
#oncrawlwebinar
Custom Field et extraction d’un Data Layer
Les Customs Fields pour extraire une chaine de caractère facilement reconnaissable sont basés sur
une Expression Régulière REGEX Cheat Sheet
Dans ce cas la règle est : s.prop2=”([^"]+)”
Extract : Mono-value
Field Format : Value
Webinar
#oncrawlwebinar
Quelles données extraire du code source ?
Utiliser REGEX pour tester la présence d’un tag
Dans ce cas la règle est : ‘_setAccount’, ‘UA-364863-11’
Extract : Check if exist
Webinar
#oncrawlwebinar
Tests, Tips and Tricks
1
2
3
1
2
3
Toujours vérifier que l’extraction fonctionne
1. Avec une url d’exemple ou un morceau de code source
2. Appuyer sur CHECK
3. Vérifier le résultat de l’extraction
Webinar
#oncrawlwebinar
Tests, Tips and Tricks
Quel type d'extraction est possible
Pour chaque règle, vous pouvez extraire plusieurs types d'extraction:
• Mono-valued : renverra une seule chaîne
• Multi-valued : renverra un tableau
• Check if exist : vérifie si une valeur est renvoyée
• Length : compte le nombre de caractères extraits
• Number of occurrences : comptera combien de termes extraits correspondent à la règle
par exemple le nombre de Bloc produit dans une page list
Toute la documentation est disponible sur le help OnCrawl
Webinar
#oncrawlwebinar
La donnée dans le Data Explorer et les Filters
A la suite du crawl, les Customs Fields
deviennent de nouvelles colonnes dans
OnCrawl
Ces « champs » sont interprétés comme
n’importe quel autre champ :
• Data Explorer
• Custom Filters
• Segmentations Filters
Webinar
#oncrawlwebinar
Catégorisation sur les Custom Fields
1
2
Pour créer un nouveau Set :
1. Cliquer sur CREATE GROUPE SET
2. Donner un nom au SET
3. Ne pas cliquer sur « I want to use this set on logs
monitoring… » !
3 Le set n’étant pas basé sur l’url, le log monitoring ne
pourra pas avoir cette segmentation,
Mais elle est disponible dans toutes les analyses
croisées log/crawl
Webinar
#oncrawlwebinar
Catégorisation sur les Custom Fields
Pour créer un groupe de page basé sur une valeur de
Custom Field :
1. Cliquer sur Create Page Group
2. Donner un nom au groupe – CF value
3. Rechercher le champ à la base du filtre
Commence forcément par Custom….
4. Ecrire le filtre (start with, is, contians…)
1
2
3
4
Pour les valeurs numérique, il existe aussi
des filtres Greater than, Less Than or
equals
Webinar
#oncrawlwebinar
Catégorisation sur les Custom Fields
Votre catégorisation est écrite !
Elle est disponible immédiatement dans
tous les rapports d’OnCrawl
Pour switcher entre
les différents filtres,
utilisez la bandeau
en haut des pages
Webinar
#oncrawlwebinar
Catégorisation sur les Custom Fields
Vous avez maintenant une vue basée sur votre catégorisation personnelle !