Vendredi 22 Mai se tenait le premier SEOCamp à Genève. C’était une grande première pour moi. Et le moins que je puisse dire c’est que je n’ai pas été déçu. Sans prétention aucune, j’avais peur de ne pas apprendre beaucoup de choses. Je mène une veille drastique sur de nombreux sujets (dont le SEO) et donc je ne savais pas trop à quoi m’attendre. Je voulais surtout en être parce que je connais 3 des intervenants + de nombreux non intervenants. C’est toujours l’occasion de réseauter et c’est aussi une bonne école puisqu’à terme j’aimerai moi aussi me prêter à l’exercice. Bref, plein de bonnes raisons… Et bien c’était du high level et j’ai appris plein de choses !

Ce que je vais tenter dans cet article, c’est de vous faire vivre l’événement de l’intérieur pour que vous vous rendiez compte à quel point vous avez loupé quelque chose si vous n’êtes pas venu. Et surtout pour que l’an prochain, vous n’ayez pas envie de rater ça !

J’ai du splitter en 2 parties, sinon ça aurait vraiment été trop long. Dans la première partie, voila ce que l’on a traité :

Et dans ce second article :

Conf SEOCamp : Yannick Bouvard – les 60 premiers facteurs de ranking SEO

Yannick-Bouvard

Yannick Bouvard. Web strategist chez UNE agence (Spécialiste SEO, SEA et réseaux sociaux). Et consultant SEO indépendant.

Ses sites : http://www.yeca.pro/ et également http://www.yeca.ch

Pour le suivre : https://twitter.com/yeca

 

IMG_20150522_140511Yannick nous présentait les résultats de l’étude SEO Factors 2015. L’idée de cette étude, c’était de demander à 46 experts SEO de donner les critères qui selon eux sont importants pour ranker et de leur attribuer une note de 0 à 100 en fonction de l’importance qu’ils accordent à chaque facteur.

Au final, les 63 critères les plus importants ont été retenus. Et c’est vraiment intéressant. On a des facteurs surprise, on a aussi de gros désaccords parfois et puis on a des choses qui au contraire respectent la logique. Voyons tout de suite les résultats.

Le Top 5 des facteurs de positionnement sur Google

IMG_20150522_140908Sans trop de surprise (forcément), le top 5 est constitué de la balise title (89%), la qualité des liens (87%), l’autorité du domaine (85%), la qualité et l’originalité du contenu (85%) et l’ancre des liens (85%).

Alors je dis sans trop de surprise parce que ce sont quand même les facteurs les plus évidents, ce sont les premières choses que l’on va apprendre et sur lesquels on va être attentif lorsque comme moi on n’est pas un ultra expert SEO, simplement quelqu’un qui s’y intéresse (forcément, ça fait partie du métier).

Finalement, je ne suis pas trop surpris non plus par les 5 ou 6 facteurs suivants que sont la pertinence des domaines référents (81%), la diversité des ancres de liens (81%), le maillage interne (79%), le nombre de domaines référents (77%), la balise H1 (74%) et enfin le champ lexical (74%).

IMG_20150522_140949Éventuellement, pour ma part, et vis-à-vis de mes croyances j’aurai ajouté à ça la cohérence entre le contenu de la balise title, celui de la balise H1 et celui de l’url. Généralement j’essai de les faire similaires, je pense que c’est important.

Et éventuellement aussi, je crois que la fréquence de publication a de l’importance. Si je ne m’abuse, plus on publie souvent plus le Google Bot passe souvent. Et pour moi, ça c’est aussi un facteur important. Mais bref, je m’égare ^^.

Les surprises pointées par l’étude

Au rang des surprises, voici 6 facteurs pour lesquels visiblement le résultat est surprenant : le maillage interne (79%), le texte qui entoure le lien référent (73%), le nombre de liens sur la page référente (64%), le taux de clic dans les pages de résultat de recherche Google (59%), les partages sur les réseaux sociaux (30%) et enfin le HTTPS (13%).

IMG_20150522_141056Alors, forcément j’ai un avis la dessus aussi (oui, j’ai un avis sur tout ^^). Pour moi, maillage interne, le texte qui entoure le lien et nombre de liens sur la page référente ne sont pas des surprises. J’ai d’ailleurs cru lire il y a peu que les mots du paragraphe qui entourent un lien ont en quelque sorte remplacé l’ancre depuis Pinguoin.

Le nombre de liens sur la page référente, ça, ça fait longtemps que c’est le cas (histoire de dissolution du jus plus il y a de liens). D’ailleurs, l’une de mes croyances c’est aussi que plus le lien est haut dans le texte et plus il envoit du jus. Par exemple, si on a 3 liens sortants dans un contenu, le 1er va envoyer 50% de jus, le 2ème 35% et le dernier 15%. La encore, ce sont mes croyances.

Concernant le taux de clic, effectivement je crois que c’est important et que c’est étroitement lié au taux de rebond/retour à la Serp. Je pense que Google a un ratio CTR/rebond connu par lui seul qu’il attribut à chaque résultat pour une requête donnée. D’où l’importance d’optimiser title et description (CTR) et de les faire pertinents par rapport au contenu de la page (pour éviter les rebonds).

Enfin, concernant les réseaux sociaux et le HTTPS. Je pense que la popularité sur les réseaux sociaux est un facteur important (peut être un peu plus que 30%). Mais que tous les réseaux sociaux ne sont pas logés à la même enseigne. Je pense que la popularité d’une page (partages et j’aime) Google plus et maintenant Twitter est un facteur assez important. Moi j’aurai été tenté de donner 50% mais uniquement pour un laps de temps donné. Par exemple, pour les 5 à 7 premiers jours. Ensuite la mayonnaise sociale retombe, le critère est repondéré à la baisse (et à ce moment la 30% me parait beaucoup, j’en donnerais 20).

Et puis HTTPS, effectivement, pas trop d’importance. Pour le moment. Par contre à terme, sans doute que ça va augmenter.

Les accords et désaccords les plus marqués entre les experts

IMG_20150522_141305Partie très intéressante ça aussi. Alors, les facteurs ou les experts interrogés sont assez unanimes : le HTTPS (58%), Google Webmaster console (55%), priorité sitemap (53%), Google Adwords (53%), Google Analytics (44%).

Et ceux ou les désaccords sont les plus marqués : le contenu de la page dupliqué (90%), le taux de rebond après une Serp (87%), le PageRank de la page référente (87%), la qualité des liens entrants (85%) et le thème de la page référente (80%).

IMG_20150522_141415Pas grand chose à dire la dessus. Chacun a ses croyances et ses avis. Il y a forcément des convergences et des divergences. Pour ma part (et c’est ma grosse surprise parce que je n’ai jamais entendu parlé de ça avant) je suis assez étonné que les experts considèrent (et soient d’accord!) Google Adwords et Google Analytics comme des critères de classement.

Il va falloir que j’aille lire des études sur le sujet pour m’en convaincre parce que je n’y crois pas du tout.

Mon avis : Sur les résultats je l’ai donné déjà. Sur l’étude en elle même, je trouve que c’est très intéressant et que c’est une bonne initiative. Pour un accès complet aux résultats, rendez vous sur le site dédié : http://www.seo-factors.com/fr/.

Ah oui et puis je suis ouvert (et en demande) aux échanges et aux discussions sur mes croyances SEO. Ce que je crois et dis vous parait il cohérent? Ou au contraire complètement incohérent?

Conf SEOCamp : Sylvain Peyronnet – Introduction aux algorithmes prédictifs et au machine learning

Sylvain-Peyronnet

Sylvain Peyronnet. Co-fondateur et responsable des ix-labs. Professeur des Universités (en disponibilité) à l’Université de Caen Basse-Normandie. Il est co-fondateur et responsable des ix-labs, un laboratoire de R&D en algorithmique pour le web, et co-fondateur de nalrem medias (agence web).

Ses sites : http://www.peyronnet.eu/blog/ et également http://www.ix-labs.org/sylvain/

Pour le suivre : https://twitter.com/speyronnet

IMG_20150522_142110

Sylvain commence par nous introduire le pourquoi. Il commence par nous parler de Ecommerce et nous rappelle à juste titre qu’en moyenne, 98% des visiteurs d’un site marchand ne vont pas commander au cours de leur session sur le site.

La question qu’il se pose est donc justifiée (et vaut très chère ^^) : est ce que l’on peut faire en sorte que les internautes évitent l’abandon en adaptant le site à leur comportement. On va donc parler de Machine Learning et d’analyse prédictive.

Alléchant n’est pas? Oui, mais très technique. Donc avant d’en revenir au Ecommerce, Sylvain va nous faire une approche théorique (et historique aussi, pour notre culture).

Classification automatique et analyse prédictive

La classification automatique a pour objectif de classer des individus dans des classes, c’est à dire des ensembles qui partagent des caractéristiques statistiques. Cela a un intérêt dans de nombreux domaines : traitement d’images, langue, marketing, moteur de recherche, etc… La classification automatique est une branche de l’apprentissage (machine learning).

L’analyse prédictive a pour but d’analyser les données issues des comportements passés, d’en extraire des motifs et de fournir des possibilités d’évolution des comportements à partir de la connaissance de ces motifs.

Attention toutefois, prédiction est un bien grand mot. La plupart du temps on repère un début de motif connu, ce qui permet de « deviner » ce qui va se passer. Exemple : si on est doublé sur l’autoroute par une voiture qui roule en zig zag,  à 200 km/h, avec deux pneus crevés et en feu, on peut prédire un accident.

IMG_20150522_142802Introduction aux arbres de décision

Le but de la plupart des algorithmes est de construire un mécanisme de décision, souvent un arbre. L’objectif est d’avoir l’arbre le moins haut possible. Vous pourrez en apprendre plus sur le sujet sur Wikipédia.

La raison principale donnée par Sylvain c’est que l’on minimise ainsi le coût de classification.

IMG_20150522_142851On va bien évidemment chercher à avoir un arbre qui nous donne les meilleurs résultats possibles c’est à dire le pourcentage d’incertitude le plus faible possible. Je passe rapidement sur les types d’erreurs et les méthodes pour les calculer.

Ce qu’il faut retenir ici c’est qu’on fait de la statistique et de la probabilité, qu’on a forcément des erreurs (que l’on sait quantifier) et on veut logiquement qu’elles soient le plus faible possible.

IMG_20150522_142952Vous pouvez voir sur les slides les types d’erreur et la manière donc on va calculer ces erreurs. Je ne détaille pas. C’est technique et dans le fond, ça ne m’intéresse pas tant. C’est un peu comme la programmation orientée objet. Plutôt que de regarder comment est fait l’objet, je préfère l’utiliser ^^.

Cela étant c’est bon pour la culture.

La création d’un arbre de décision

IMG_20150522_143038Disclaimer : je vais tenter de réexpliquer à partir de mes notes et de ce que j’en ai compris le principe de création d’un arbre de décision. Je ne suis pas un expert du sujet.

Un arbre de décision va être créé avec un algorithme. De façon imagée et vulgarisée, on va faire des observations. Par exemple jour 1, taux d’humidité 50%, température 23°C, pression atmosphérique 1023 hPa. Pluie? non. On réitère sur 500 jours. Ce qui nous intéresse c’est de prédire si en fonction de la température, la pression et le taux d’humidité on est capable de prédire qu’il va pleuvoir. Le principe est le même quelque soit le domaine dans lequel on veut utiliser un arbre de décision.

On va ensuite reporter nos 500 observations dans un tableau. Ce tableau c’est ce que l’on appelle le Dataset. Ensuite, on va passer ce dataset à un algorithme. Sylvain nous parle de l’algorithme C4.5 mais il en existe beaucoup d’autres. Toujours de façon imagée, l’algo va mouliner les données, grouper les informations et établir des statistiques et des probabilités de résultats de paramètres les uns en fonction des autres. (C’est vraiment raccourci, c’est juste pour comprendre le concept). Ca définit un arbre.

Il faut ensuite le tester et définir les pourcentages d’erreur. Il existe plusieurs techniques pour améliorer les performances de l’arbre. Sylvain aborde le bagging notamment (si j’ai bien compris, on confronte plusieurs arbres pour diminuer les risques d’erreur). Je vous mets les différentes slides. C’est très technique tout ça et si ça vous intéresse, je vous invite vraiment à contacter Sylvain. Il dispense de très bonnes formations sur le sujet.

Application à la vente en ligne

L’idée c’est d’utiliser tout ça pour prédire si un utilisateur va acheter ou pas en fonction du temps passé sur le site, du nombre de pages vues, de s’il a mis un ou plusieurs produits au panier, de s’il est déjà client ou pas, etc… Si la prédiction d’achat c’est oui, très bien, on laisse faire. Si c’est non, on lui donne un incitatif (pop-up, promotion, etc…).

Et aussi, et ça c’est intéressant également, la puissance des différents paramètres quand à la probabilité globale. Par exemple dans l’exemple de Sylvain, le temps passé sur le site serait le critère d’influence principal à 90%. C’est une information super. (Au hasard, mettons en place des dispositifs visant à augmenter le temps passé sur le site ^^).

Enfin, il faut bien comprendre que l’algorithme ne détermine pas l’action à faire, il définit une probabilité. Et en fonction de celle-ci il faut agir (ou pas). Il semble qu’avec de l’A/B Testing ou des bandits manchot on puisse automatiser cet aspect. La Sylvain est passé très vite.

Juste, quand même, je ne savais pas ce que c’est qu’un bandit manchot. En fait si j’ai bien compris, c’est un plan de test probalistique, c’est un peu compliqué ça encore ^^. Plus de détails ici : http://fr.wikipedia.org/wiki/Bandit_manchot_(math%C3%A9matiques).

Voici les slides.

Et concrètement

Tout ca c’est super. Mais est ce qu’on peut l’utiliser la, tout de suite? Parce moi c’est ça qui m’intéresse. Alors, il faut savoir que le C4.5 c’est gratuit et utilisable par n’importe qui. Le problème (ou plutôt la barrière à l’entrée) c’est qu’on s’en sert en ligne de commande. J’ai donc trouvé un site qui a l’air très bien pour apprendre les bases qui nous permettent d’utiliser l’algo : http://www2.cs.uregina.ca/~dbd/cs831/notes/ml/dtrees/c4.5/tutorial.html

Sinon, à un niveau encore plus haut, je me suis demandé quels outils on peut utiliser immédiatement en ecommerce pour mettre en place ce genre de chose. Typiquement, un module prestashop par exemple. Alors, on connait déjà tous plus ou moins les moteurs de recommandation. J’ai d’ailleurs fais un article la dessus : Moteurs de recommandations e-commerce : fonctionnement, comparatif, utilisation. En gros, on propose aux clients des produits additionnels basés sur l’étude proba des associations de produits achetés dans le passé.

Mais avoir un truc comme le décrit Sylvain ce serait à mon sens encore plus intéressant (à utiliser en complément). Je n’ai pas le temps de faire des recherches poussées la tout de suite. Et des recherches de surface ne donnent rien. Quelqu’un connait il un outil à tout hasard? si oui, n’hésitez pas à partager en commentaire.

Mon avis : Wahou ! On parle d’application au Ecommerce mais en réalité c’est applicable à tous plein de domaines. Et c’est énorme. Etre capable d’analyser et « prédire » tout et n’importe quoi moi ça me fait rêver ^^. Il y a cette barrière à l’entrée pour apprendre à utiliser l’algo en ligne de commandes mais une fois que l’on sait utiliser, on a un super pouvoir. Je reviendrai sans doute sur le sujet dans les mois à venir…

Conf SEOCamp : Muriel De Dona – La « norme » Qualité pour les sites web

muriel-dedonna

Muriel De Dona est Consultante en qualité web. Elle est également co-auteur du livre Qualité Web : Les bonnes pratiques pour améliorer vos sites.

Acheter son livre : http://www.amazon.fr/Qualit%C3%A9-Web-bonnes-pratiques-am%C3%A9liorer/dp/2954303107/ref=la_B009VDT0BW_1_1?s=books&ie=UTF8&qid=1432456815&sr=1-1

Pour la suivre : https://twitter.com/muriel_dedona

IMG_20150522_150331La qualité web doit être normée

La qualité d’un site web est quelque chose de sujectif. Pour un webdesigner, un site web de qualité sera un site avec un design élégant. Pour un SEO ce sera un site bien structuré avec du texte optimisé et des balises meta bien renseignées, etc… Pour un utilisateur, ce sera un site sur lequel il arrive à faire ce qu’il veut facilement. Et des exemples on peut en trouver des dizaines (cf slide).

Google a tenté de définir les critères de qualité d’un site web. Malheureusement, leur tentative, bien que louable, n’aboutit pas vraiment au résultat souhaité.

Voici un exemple de critère qualité selon Google, ici pour la sécurité : « Auriez-vous suffisamment confiance en ce site pour lui communiquer les informations relatives à votre carte de paiement ? ». Subjectif. Par contre voir si la page est encryptée en https est un critère beaucoup plus objectif.

IMG_20150522_151203Un autre exemple pour la route, ici pour le contenu : « Est ce que l’article offre plusieurs points de vue sur ce qui est raconté? ». Subjectif. Par contre, voir si les citations sont balisées de façon appropriées est un critère beaucoup plus objectif.

La qualité ce n’est pas subjectif. Ça doit être objectif et universel. Ça doit définir les bonnes pratiques fondamentales de toutes les disciplines qui prennent part dans un site web.

Elle doit être mesurable par le biais de critères objectifs, durables et universels qui font consensus. D’où la nécessité d’une norme, d’un référentiel. Une espèce de gros cahier des charges qui mettrait tout le monde d’accord. Et bien ça existe. Et ça s’appelle le référentiel Opquast. Plus d’infos ici : http://opquast.com/fr/.

Analyser la qualité d’un site en 10 minutes

IMG_20150522_151239Parce que la qualité fait partie de ces domaines qui n’ont pas de ROI mesurable de suite, elle est souvent oubliée ou mise de côté. Muriel, en temps de consultante qualité s’est adaptée à cet état de fait et a développé sa propre méthode pour évaluer la qualité d’un site web en 10 minutes.

La partie « non rentable » de l’audit est ainsi réduite et permet d’aboutir rapidement aux rectifications qui elles auront un impact plus mesurable en terme économique (pas toutes mais certaines, en ergonomie, en SEO par exemple).

L’idée de l’audit express c’est de prendre la homepage et une ou deux pages aléatoires du site et de les détailler d’un point de vue qualité. Elle nous en a fait une démonstration probante en étudiant le site web du SEOCamp (qui pour le coup ont eu le droit à un audit gratuit ;-)). Je vous mets quelques slides d’exemples :

 

pourquoi-faire-de-la-qualite-webEt pour conclure, faire de la qualité web c’est comme faire de la qualité dans tous les autres domaines. Ca permet d’offrir une bonne expérience aux utilisateurs qui seront plus enclin à revenir, qui accompliront plus facilement la tache qu’ils sont venu effectuer (ce qui contribue il me semble au ROI de notre site web non?!).

Mon avis : La qualité web, comme toutes les normes qualité c’est un peu barbant, faut être honnête. Mais c’est dans l’intérêt de tout le monde. Les utilisateurs aiment les sites de qualité, Google aussi, les clients pour qui on les réalise aussi. Et finalement, la encore comme toutes les normes qualité, le plus dur c’est de changer sa façon de travailler (si éventuellement on n’a pas la bonne, ce qui évidemment n’est pas mon cas ni le votre n’est ce pas ^^). Mais une fois que l’on a pris le pli, après c’est bon.

Ce qui serait intéressant, (je ne sais pas si c’est déjà le cas) ce serait d’avoir une certification qualité avec un badge qualité web quantcast par exemple. Un label avec un badge ca apporte une reconnaissance et du coup ça inciterait peut être les agences à aller dans ce sens.

Conf SEOCamp : David Labouré – Intêrets, impacts et utilisation des médias sociaux par les chaines TV

david-labouree

David Labouré est responsable des relations en ligne chez RTS – Radio Télévision Suisse

Sa page About.me : https://about.me/DavidLaboure

Pour le suivre : https://twitter.com/davidlaboure

Pourquoi utiliser les réseaux sociaux lorsque l’on est une chaine TV?

David-LabourePour une chaîne TV, l’utilisation des réseaux sociaux permet :

  • D’atteindre plus largement son public et principalement les jeunes
  • D’accompagner et de développer de nouvelles expériences
  • D’enrichir et partager ses contenus TV et exclusifs web
  • D’intégrer son public à ses programmes afin de créer de l’interaction
  • De promouvoir son offre et valoriser son patrimoine audiovisuel
  • De proposer une offre moderne et de qualité attendue par le public

rising-starPour que tout ça soit plus concret, David nous a ensuite montré tout ça par l’exemple. De nombreux cas ont été étudiés : qu’ils s’agissent de l’utilisation des réseaux sociaux pour des émissions politiques, sportives, ou de divertissement.

Nous avons vu de nombreux types d’interactions entre le programme TV et les réseaux sociaux : les tweets en direct, le vote par tweet, les concours multi-réseaux sociaux, les battles sur Twitter lors du dernier mondial de Football.

what-ze-teuf-d8Et puis nous avons vu également plusieurs types de contenu proposés et partagés sur les réseaux sociaux : les trailers d’emission, les émissions dédiées au web et même des séries co-crées avec les internautes (Exemple de What Ze Teuf sur D8)

Nous avons vu aussi que dans l’ensemble, même s’il est pour l’instant encore assez difficile de monétiser tout ça, les chaines TV sont sur la bonne voie et réussissent déjà à générer pas mal d’engagement avec leur communauté.

Mon avis : Ce n’était à priori pas le sujet qui allait me passionner le plus. Et pourtant! Rondement menée avec des slides image et vidéo rafraîchissants, David a su m’emmener dans son univers télévisuel pour comprendre les problématiques et les solutions du secteur pour s’adapter à l’évolution liée au web et aux réseaux sociaux. Une présentation intéressante et on ne peut plus d’actualité.

Conf SEOCamp : Paul Sanchez – Les ficelles SEO, entre bonnes pratiques et borderline

Paul-Sanches1Paul Sanchez est consultant en référencement & fondateur de la société Impact SEO. Élu 2e meilleur SEO en France en 2013

Son site : http://www.impactseo.fr/

Pour le suivre : https://twitter.com/seoblackout

Avec un timing serré (et visiblement les yeux qui piquaient un peu ^^), Paul nous a servi un petit tour d’horizon de ce qu’il est possible de faire aujourd’hui en SEO en dehors des guidelines de Google.

Lors de ce SEOCamp, et en terme SEO uniquement, Aurélien m’a appris des choses en terme d’outils et de méthodologie. Je ne connaissais pas le scraping notamment (Mais comment je faisais avant ! ^^). Kévin m’a également appris des choses en terme d’outils, de méthodologie et il a abordé le thèmes des Pbn que je ne connaissais pas. (Ben oui, je fais ma veille SEO pour une bonne part chez Rand Fishkin. Et Rand, il ne parle pas de Pbn !). Mais la ou j’ai découvert le plus de choses, c’est sans doute avec Paul. (En même temps c’est logique, puisque c’était un tour d’horizon).

IMG_20150522_163728C’est impressionnant le nombre de techniques borderline (et plus si affinité) qui existent encore aujourd’hui. C’est un peu comme si j’avais découvert l’étendu des pouvoirs du côté obscur (grand fan de Stars oui).

Je ne compte pas forcément les utiliser. Je ne vous conseille rien non plus. Juste, pour les non experts tels que moi, je vous souhaite de prendre plaisir à découvrir ce qui suit. Et savoir, juste savoir. C’est tellement bon.

La philosophie grey

Pour les éventuels non initiés, je précise : white(hat) = jedi. Black(hat) = méchant sith. Grey = jedi devant et sith derrière (ou l’inverse).

La philosophie c’est d’être rusé. C’est de savoir utiliser toutes les techniques et les outils à disposition, les white, les black mais avec parcimonie et le soucis de toujours paraître naturel.

Alors de quoi parle t’on? De contenu, de son optimisation, de netlinking, de redirection, de cloaking, de Prbn, de Pubn, de génération de contenu, de techniques pour éviter les pénalités, de surveillance de la concurrence, de domaines expirés, d’EMD, d’automatisation, etc…

Stratégie de Linkbuilding : le nerf de la guerre

Tout commence par la phrase la plus marketing de cette journée : « Même Google achète du lien, c’est bien la preuve que ça marche !« .Effectivement… Alors, c’est quoi les options? Et ben de l’achat de liens par exemple. Il existe encore des plateformes qui permettent d’acheter du lien. Et d’après Paul ça marche très fort. Un lien en page profonde dans un article à thématique ciblée, faut compter à peu près 80€. Mais les prix peuvent aller de 50€ à 500€, parfois plus.

Petit point méthode pour vérifier la qualité d’un lien, d’un site ou d’un nom de domaine. Regardez déjà si le site ranke. Regardez ensuite son Trustscore dans MajesticSEO (rappelez, d’après Kévin, le Trustscore majestic c’est l’équivalent actuel du PageRank). Vérifiez aussi la date de mise à jour du cache Google. S’il date de quelques jours (entre 2 et 5 par exemple), c’est bon. Enfin, vérifiez si le site génère du trafic et s’il ranke sur autre chose que la thématique qui vous intéresse. (Semrush conseillé pour ça).

IMG_20150522_165239Autre option, faire du linking en créant des offres d’emploi. Vraies ou fausse, allez savoir. Des fausses offres d’emploi c’est interdit. Des fausses offres de stage à confirmer ^^. Bref, dans le même principe, comme vous pouvez le voir sur le slide, les opportunités sont nombreuses.

Autre option, « obtenir des liens de ses concurrents« . Je mets entre parenthèses parce que c’est une façon de dire les choses bien vendues. L’idée c’est effectivement de se servir de ses concurrents. On extrait tous leurs liens sortants. Et on vérifie si dans le tas, il n’y en auraient pas quelques uns qui seraient morts.

IMG_20150522_165834Si c’est le cas (et ça l’est souvent si le concurrent a quelques années), on rachète les domaines et on fait une redirection 301 vers notre site. On peut aussi mettre du contenu dessus et faire un lien vers son site. C’est malin (j’adore).

Et effectivement on obtient en quelque sorte un lien de son concurrent. Vérifiez quand même que le domaine n’est pas pourri et/ou pénalisé.

Astuce : utilisez Safebrands pour vérifier la disponibilité de noms de domaine en masse (vous pouvez en vérifier 2000 ou 3000 d’un coup sans problème).

Une autre astuce : tapez http dans Google. Ca va vous sortez que des gros sites d’autorité. Essayez la même méthode. Un lien d’un poids lourd c’est toujours intéressant.

Noms de domaines expirés

IMG_20150522_170110Des noms de domaine expirés… Pourquoi faire? Et ben pour récupérer l’autorité existante et tout le travail déjà effectué auparavant. L’idée c’est de ne pas repartir de zéro et donc de gagner du temps.

Il existe des sites spécialisés dans la vente de noms de domaines expirés. Des sites comme KifDom par exemple. Ou encore 4X. Soyez vigilents sur ces sites car bien souvent, ils gonflent artificiellement le nombre de liens qui pointent dessus en faisant pointer des liens à eux. Mais lorsque vous achetez le domaine, ils enlèvent les liens et c’est plus la même. Donc ne vous fiez pas trop à leurs données, vérifiez vous même.

Un autre conseil par rapport à ça : trouvez des noms de domaine expirés récemment si possible. C’est mieux. La toolbar Alexa est intéressante pour ça.

Public/Private Blog Network

IMG_20150522_170429Commençons par le public, c’est la ou j’ai le moins de choses à dire. L’idée c’est d’utiliser des plateformes similaires à WordPress.Com par exemple et de créer des faux blogs. Faux blogs qui doivent évidemment paraître naturel, rappelez vous la philosophie grey !

Mais en multipliant discrètement les blogs sur des plateformes différentes, créés à une période différente, avec un contenu différent et des profils de liens différents, c’est intéressant.

IMG_20150522_170614Les private maintenant. Le principe est le même sauf qu’il faut le faire en rachetant des noms de domaine expirés. Plus de risques, faut être malin.

Changez les whois, le provider, achetez les ndd de manière séquencée, mettez les sites sur des serveurs différents (pas les mêmes IP et mieux encore pas les mêmes pays), utilisez différentes plateformes de sites (du wordpress, du joomla, du drupal, etc…) Plus de choses encore sur le slide.

Google est très vigilent sur ce genre de choses, il faut donc le faire proprement.

IMG_20150522_170513Ensuite, que l’on ait du public ou du privé, on a plusieurs manières de les utiliser pour doper notre site que l’on veut ranker (le money site en jargon).  On peut faire ça sur deux niveaux par exemple. On bourrine le 2ème niveau pour pousser le 1er. Et le premier pousse correctement le money site.

L’inconvénient majeur de cette méthode c’est que ça prend beaucoup de temps. Le conseil de Paul c’est de bien sélectionner ses noms de domaine expirés et de faire du 1er niveau seulement.

Tips de derrière les fagots : un nom de domaine acheté chez Gandi monterait à priori plus et/ou plus vite.  Comme si le fait que ce soit plus cher chez eux fait qu’en général les spammeurs ne prennent pas chez eux et que statistiquement, Google a un trust meilleur.

Le reste rapidement

Sur l’étude des concurrent on s’est pas vraiment attarder. Il faut dire que Kévin avait bien traité le sujet le matin. Paul recommande SEObserver pour l’espionnage des concurrents. Concernant la méthodologie, se rapporter à ce qu’a dit Kevin.

IMG_20150522_171428Concernant les images, regarder celles qui rankent. Les copier, les entourer de contenu optimisé et éventuellement faire un ou deux backlinks vers notre image (Et oui, les backlinks ça marche aussi pour doper les images). Résultat l’image du concurrent est remplacé par la notre.

Les images peuvent être stratégiques. Il est de plus en plus fréquent d’avoir une ligne d’images en première page des Serp. Dans la guerre de la visibilité, tout ce qui peut être pris n’est plus à prendre ^^.

Concernant le contenu, Paul soumet plusieurs pistes (agregation de contenu, curation de contenu, rédaction sur des plateformes type Textbroker, mise en place d’alertes sur des thèmes précis (avec des outils comme Google Alert, SocialMention, Alltop…).

Il recommande fortement l’utilisation de Microdatas pour augmenter le CTR depuis les SERPS. Petit focus sur le nouveau Json-LD qui a pour avantage de pouvoir cacher facilement les optimisations Microdata.

Concernant l’acquisition de trafic, il parle brièvement des réseaux sociaux ou de Google News. Concernant les réseaux sociaux il insiste sur les réseaux professionnels.

Et puis enfin quelques outils d’automatisation avec des outils comme Ubot, ZennoPoster5. Voici les slides des dernières idées. A ce stade on manquait de temps.

Mon tips à moi : J’ai lu hier soir sur un article qui expliquait qu’on pouvait gagner de la visibilité en bourrinant des liens sur une présence de notre entreprise sur un gros site d’autorité. On peut par exemple booster notre page Facebook ou notre boutique Amazon. Le site d’autorité lui ne craint rien et à priori nous nous plus. Je trouve ça malin aussi. Quelqu’un a déjà essayé ça?

Mon avis : Super intéressant. J’ai appris plein de choses. Tout ce qui eDavid est lest dit la dedans est finalement assez évident quand on le sait mais je n’avais jamais pensé à tout ça. J’ai adoré.

Conf SEOCamp : David Scholberg et Sujati Lo – Lorsque les techniques d’E-reputation classiques n’ont pas fonctionnées.

David-et-Sujati

David Scholberg et Sujati Lo. David est le fondateur de KBSD, une agence Digital Intelligence & E-Reputation. Sujati est l’un des bodyguards.

Le site : http://kbsd.ch/

Pour les suivre : https://twitter.com/scholberg et https://twitter.com/web_seo

Techniques d’éradications efficaces

L’idée de cette intervention était d’informer sur ce qu’il est possible de faire lorsque les techniques classiques d’E-réputation n’ont pas fonctionné. Par techniques classiques j’entends ce que l’on peut entendre à peu près partout. Créer du contenu positif pour faire descendre le contenu négatif, demander à l’éditeur du site de retirer, demander à Google de désindexer, etc..

Et bien parfois tout ça ne marche pas. Et parfois ça prend trop de temps, on a besoin d’une action rapide. Dans ces cas la, il existe des techniques qui permettent de supprimer (au sens propre et/ou figuré) un résultat gênant plus ou moins rapidement, de manière plus ou moins white disons (rappelez vous, le jedi^^).

Je fais le choix sur cette intervention de ne pas trop détailler ce qui s’y est dit. J’ai apprécié avoir des réponses à mes questions. Et je pense qu’ils apprécieront que je ne détaille pas trop. Leur activité c’est aussi de rester sous les radars. Je respecte ça. Je vais vous donner les bases et les résultats qu’on peut obtenir. Mais je ne m’attarde pas sur le comment. Voici les slides de présentation :

Le switch

IMG_20150522_173324On commence gentiment. Le problème ici c’est lorsque la mauvaise page se positionne sur une requête. Par exemple pour une requête produit la page de catégorie.

On va donc mettre en ligne un contenu optimisé sur le même site et le rendre plus pertinent aux yeux de Google que la page de catégorie pour rester dans notre exemple. Cette optimisation on-site permet ainsi de repositionner la page la plus pertinente sur la requête.

 

Duplicate content et Hijacking

IMG_20150522_173602Ce contenu d’un concurrent qui ranke en première place sur votre meilleure requête vous fait rêver? Et si juste on pouvait lui voler la place, ce serait bien pas vrai? Et bien on peut. Sur le principe on duplique la page et on la rend plus populaire que la page à l’origine du contenu.

Lorsque Google se rend compte du duplicate content, il supprime la moins populaire et garde la plus populaire en place (souvent et en toute logique l’originale). Mais pas si la popularité est meilleure pour la page que l’on a créer.

Le rachat

Selon que vous ayez les moyens ou non. Si un résultat vous dérange, qu’est qui vous empêche de payer l’éditeur du site qui ne veut pas l’enlever? De racheter son site?

Le droit à l’oubli

Utiliser le droit à l’oubli des moteurs de recherche. Le problème c’est qu’en moyenne actuellement, on a environ 60% de refus (58,7%) pour être exact. De plus, bien souvent, le droit à l’oubli n’est pas une suppression à proprement dite de la page dans les résultats de recherche. C’est plus un masquage local. Selon la requête, le résultat sera enlevé. Mais ce n’est pas pour autant que la page est inaccessible ou trouvable avec une autre requête ou depuis un Google d’un autre pays.

L’anti-linking

IMG_20150522_174136De manière imagée, l’idée c’est de couper l’herbe sous le pied de la page qui ranke (et qui nous dérange). On va s’attaquer aux backlinks qu’elles a. On peut les racheter ou demander gentiment si c’est possible de les retirer. Parfois ça fonctionne.

Les autres méthodes

Les autres méthodes pourront vous être expliquées si vous contactez KSBD et que vous avez besoin de leur service. L’idée de toute façon est toujours plus ou moins la même. Supprimer un lien dérangeant, faire descendre un site, etc… Parfois coûte que coûte.

Mon avis : C’était très intéressant. Ça ouvre les yeux sur les possibilités que l’on a aujourd’hui pour manipuler la Serp dans le cadre d’une action ponctuelle et (parfois souvent) sans pitié.

L’After SEOCamp

L’after SEOCamp s’est déroulé au Scandale, comme la veille à l’occasion du Before. Très sympa, bonne ambiance. J’ai dû rentrer pas trop tard pour des impératifs familiaux mais je me suis laissé entendre dire que ça avait fait la fête bien comme il faut, jusqu’à très tard. Ca fait plaisir :-).

Voila quelques photos bonus que j’ai pu prendre ou que j’ai pu trouvé sympa sur le Twitter SEOCamp. Et vu le plaisir que j’ai eu cette année, rendez vous l’an prochain !

 

Ps : Priscillien a de très belles photos lui aussi. Vous pourrez les voir ici : http://priscillien.meideck.net/compte-rendu-seo-camp-geneve-2015/

A propos de l’auteur

Responsable E-commerce pendant 6 ans. Gérant de mon agence Chablais Web pendant 3 ans. Désormais à la tête du Marketing Digital chez FirstPoint Sàrl en Suisse.

Spécialiste multi-certifié des solutions Google et Facebook, j’aide les entreprises à faire d’internet leur meilleur atout. Envie d’aller plus haut ? Contactez-moi.