Hier se tenait le premier SEOCamp à Genève. C’était une grande première pour moi. Et le moins que je puisse dire c’est que je n’ai pas été déçu. Sans prétention aucune, j’avais peur de ne pas apprendre beaucoup de choses. Je mène une veille drastique sur de nombreux sujets (dont le SEO) et donc je ne savais pas trop à quoi m’attendre. Je voulais surtout en être parce que je connais 3 des intervenants + de nombreux non intervenants. C’est toujours l’occasion de réseauter et c’est aussi une bonne école puisqu’à terme j’aimerai moi aussi me prêter à l’exercice. Bref, plein de bonnes raisons… Et bien c’était du high level et j’ai appris plein de choses !

Ce que je vais tenter dans cet article, c’est de vous faire vivre l’événement de l’intérieur pour que vous vous rendiez compte à quel point vous avez loupé quelque chose si vous n’êtes pas venu. Et surtout pour que l’an prochain, vous n’ayez pas envie de rater ça !

Je vais devoir splitter en 2 parties, sinon ce serait vraiment trop long. Dans cette première partie, voila ce que l’on va traiter :

Et dans la seconde partie :

Jeudi soir Before SEOCamp – Rencard du Web

Le 9ème rencard du web de Genève était aussi le Before du SEOCamp. Le rendez vous était donné au bar le Scandale dès 18h. Les rencards, pour ceux qui éventuellement pourraient ne pas connaître c’est un web event qui s’organise à Annecy, Genève, Annemasse, Thonon, Sallanches, Villefranche (et bientôt dans le Jura aussi!). Le but : faire en sorte que les acteurs, curieux et motivés du web se rencontrent dans un cadre conviavial pour réseauter, discuter, échanger, boire un coup, etc…

C’était comme toujours très sympa avec comme toujours une moitié d’habitués et une moitié de nouveaux venus. C’était aussi l’occasion de rencontrer les organisateurs et intervenants du SEOCamp du lendemain. Bref, toujours cool de rencontrer les gens avant, surtout qu’ils sont tous très sympas.

Plus d’infos sur les prochains rencards du web ici : http://www.rencard-du-web.com/ (Sallanches jeudi prochain si jamais).

Vendredi : SEOCamp – l’organisation

Ce n’est pas vraiment l’ordre chronologique puisque je vais parler ici de l’organisation générale de l’événement tout long de la journée. Mais peu importe. Déjà, un grand merci aux organisateurs (dans l’ordre des photos ci-dessous : Patrick Chareyre, Yannick Bouvard, Priscillien Meideck, Jérôme Guyonnet, Adrien Arnaud).

organisateurs-seocamp-geneve

Tout a été fait et pensé pour que ce soit convivial et agréable. La salle, les pauses café avec croissants, le repas (très bon), le wifi dans la salle, les prises à disposition pour recharger les devices. Pour moi il ne manquait rien. Aucun couac technique et il faut le dire, un Priscillien très bon animateur ;-). En résumé que du bon, je ne vois pas de points négatifs si ce n’est éventuellement un timing parfois un tout petit peu short qui a pu pousser quelques intervenants à abréger un peu. Mais c’est minime, vraiment. J’ai personnellement adoré et passé une super journée.

Passons maintenant au interventions. Accrochez vous, y a du lourd !

Conf SEOCamp : Aurélien Berrut – L’art d’auditer un site

AurélienBerrut

Aurélien Berrut. Consultant SEO. 15 ans d’expérience dans le Web. Société Htitipi.

Son site : http://www.htitipi.com/

Pour le suivre : https://twitter.com/htitipidotcom

Audit SEO on site

IMG_20150522_092803Un audit on site va utiliser plusieurs outils : un crawler, un outil d’analyse de trafic, un outil d’analyse de backlinks, Google Analytics, etc… L’idée, c’est de les faire travailler tous ensemble. Ou tout du moins d’extraire les données qui nous intéresse dans chacun et de les assembler pour qu’elle nous racontent l’histoire entière.

Un audit SEO doit nous permettre d’identifier les pages inactives,  de déterminer les rubriques de notre site les plus performantes,  déterminer l’impact des réseaux sociaux sur la performance SEO de nos pages, l’impact du duplicate content, la performance des liens entrants, etc…

Méthode d’audit SEO On site

IMG_20150522_093341Tout commence par un crawl (réalisé par un crawler, exemple screaming frog). L’opération nous permet de récupérer toutes les URLs d’un site web (à la différence de Google Analytics qui lui ne nous donnera que les Urls des pages visitées au moins une fois par un utilisateur sur une période donnée). On envoie toutes ces Urls dans une feuille Excel.

On exporte ensuite des données depuis Google Analytics (Url, durée de visite sur la page, taux de rebond, nombre d’entrée organique). On fait pareil avec Majestic ou ahref pour avoir nos backlinks par URL (encore dans une autre feuille Excel). On fait pareil avec des outils comme Copyscape (contenu dupliqué) ou SearchMetrics (données sociales). On peut aussi faire des indicateurs calculés (Aurélien génère ainsi un Score SEO pour ses pages).

Et puis une fois que l’on a toutes ces données dans différentes feuilles Excel, et bien on va les assembler grâce au dénominateur commun de chacune d’entre elle : les urls. Pour cela, on utilise la fonction VLOOKUP (ou RECHERCHEV en français) qui permet de récupérer dans un feuille Excel des données d’une autre feuille Excel et de les liées correctement si elles ont un dénominateur commun. Plus d’info sur la technique ici : http://www.htitipi.com/blog/vlookup.html

IMG_20150522_094457On peut ensuite faire parler les données et créer un rapport complet et multi facettes qui nous donne un aperçu global des performances de nos pages pour de nombreux critères. Avec quelques petits efforts de mise en forme et un peu de conditionnal formatting sur Excel, on arrive à des rapports visuels qui donnent de vrais insights.

Enfin, une dernière technique mais pas des moindres. Aurélien nous montre comment à partir de l’inspecteur de votre navigateur (F12 sur Chrome) vous pouvez récupérer le xpath d’un élément et le scraper dans une feuille Excel. J’ai trouvé une vidéo d’1m50 qui l’explique très bien ici : https://www.youtube.com/watch?v=EXhmF9rjqP4. Du supplément ici : http://blog.scrapinghub.com/2014/07/17/xpath-tips-from-the-web-scraping-trenches/. Cette technique est utilisée pour récupérer la catégorie de la page donnée dans le fil d’Ariane et pouvoir ainsi facilement rattacher cette information à l’URL. On peut faire la même chose pour le nom d’un auteur sur un blog par exemple.

Et c’est la que ça devient intéressant. On va pouvoir faire des tableaux croisés dynamiques en passant en variable principale nos catégories ou nos auteurs d’articles. Ca nous permettra de connaitre les catégories ou les auteurs qui génèrent la meilleure performance SEO. Les applications sont nombreuses (infinies!!!).

IMG_20150522_095649Imaginez en Ecommerce par exemple. On peut scrapper le nombre d’étoiles, le nombre d’avis, le délais de livraison, le prix (on en fait des tranches), etc… Je ne sais pas pour vous mais ça, moi, ça me rend fou. J’ai vraiment appris un truc très utile la. Je le faisais déjà sur Google Analytics mais la, l’analyse est vachement plus complète et le fait de pouvoir scraper tout et n’importe quoi sur n’importe quel site, c’est énorme.

IMG_20150522_095724Tiens, une application parmi tant d’autre. Vous faites du Ecommerce. Vous mettez dans une feuille Excel les Urls des produits de vos concurrents et vous scrappez leur prix et les vôtres. Vous faites un peu de conditionnal formating. Si le prix du concurrent est moins cher que la case devient rouge. S’il est plus cher elle est verte. Vous ouvrez votre fichier chaque matin, vous l’actualisez. En deux secondes, vous avez fait votre relevé de prix. Elle est pas belle la vie?

Bonus : le Slideshare intégral d’Aurélien ici : http://fr.slideshare.net/Htitipi/chirurgie-seo-solution-rpulsive-contre-les-pandas-seocamp

Mon avis : Super intéressant. Ca c’était à 9h. 1ère conf de la journée. Le ton est donné. Une présentation technique, concrète et désintéressée. J’ai adoré.

Conf SEOCamp : Alain Pezzoni – Présentation du Digital Marketing Hub IgnitionOne

AlainPezzoni

Alain Pezzoni. 18 années d’expérience en Ecommerce, webmarketing et CRM. Responsable E-commerce chez AIR FRANCE KLM.

Il est également le fondateur de l’agence Beonperf : http://www.beonperf.fr/

Pour le suivre : https://twitter.com/alainpezzoni

Etat et enjeux du marketing digital actuel

IMG_20150522_100855On commence par une petite introduction du paysage marketing digital actuel. Quelque chose d’assez classique mais c’est toujours bon de le rappeler. Les budgets de marketing digitaux sont en forte croissance, les utilisateurs sont hyper connectés et possèdent plusieurs devices, l’expérience globale reste cependant décevante car non orchestrée à l’échelle cross canal et cross device.

IMG_20150522_101359L’enjeu est donc d’orchestrer tout ça. Il faut donc remettre le client au centre de tous nos dispositifs et réussir à le tracker lui quelque soit l’appareil qu’il utilise et réussir à orchestrer des actions cohérentes, progressives et unifiées avec tous les dispositifs marketing que l’on a à disposition (emailing, Search, Display, Social Media, etc…).

Comment faire ça? Avec une DMP (Data Management Plateform, une sorte de super CRM) dans laquelle on va réunir l’intégralité de toutes nos données clients issues de toutes nos bases de données existantes d’une part. Et d’autre part en faisant du marketing automation qui permettra d’orchestrer une expérience unifiée. Et tout ça doit travailler ensemble.

Présentation de la DMH IgnitionOne

IMG_20150522_101657Cela devient possible grâce aux Digital Marketing Hubs (DMH), des solutions tout en un capables en théorie de faire des merveilles parmi lesquelles. Alain nous présente brievement les différents acteurs du marché et nous présente son produit : IgnitionOne. Voila un bon aperçu de ses fonctionnalités phare :

De l’attribution personnalisée : en fonction du cycle d’achat de vos clients et de leur parcours multicanal et de vos objectifs, le DMH est capable de définir le meilleur modèle d’attribution pour votre business. Il permet aussi de faire des rapport et des comparatifs entre différents modèles.

Du mediamix : en fonction du modèle d’attribution, l’outil vous propose un mix de distribution de vos budgets marketing par canaux et vous sort des projections de revenu et de dépenses.

De l’audience en temps réel pour chaque canal, avec un scoring à l’engagement par canal et enfin de l’optimisation prédictive. Plus de détail sur les slides ci-dessous :

En théorie c’est donc fantastique. Et je suis persuadé de ces solutions la sont l’avenir. En ce qui concerne le présent, je suis quand même encore un peu perplexe. D’ailleurs, Alain un peu également quand je lui demande la fiabilité et éventuellement un pourcentage moyen de fiabilité. Notamment (c’est le nerf de la guerre) en ce qui concerne le suivi des personnes. Réponse : ça dépend très fortement des données fournies à la DMH mais on est pas parfait c’est sur. Ce qui a l’avantage d’être honnête.

D’autres questions sont intéressantes selon moi. Par exemple, les solutions comme celles-ci sont accessibles pour qui? Les très grands comptes uniquement? Le Ecommercant qui fait 1 million d’euro, il y a accès lui? Et puis ça a l’air complexe. Donne t’on nos données et on obtient des rapports ou y a t’il une formation à l’utilisation de l’outil en interne? Autant de questions que je n’ai pas pu poser. Et je n’ai pas revu Alain ensuite. Cela étant, s’il lit cet article et qu’il peut nous en dire plus ce serait avec plaisir ;-)

Mon avis : Une conférence intéressante sur un outil du futur. A terme, ce genre de chose sera la norme. C’est bien de savoir que ce genre d’outils existe et ce qu’il permettent de faire. Cela étant, cette présentation sonnait quand même un petit peu (trop?) comme une présentation commerciale. J’ai personnellement découvert les fonctionnalités théoriques d’un outil mais je n’ai rien appris ici. Une (très) légère déception notamment par rapport au titre qui paraissait prometteur (j’adore les analyses multicanales et les analyses d’attribution).

Conf SEOCamp : MC Casal – Les bonnes pratique UX (en 10 points)

mcCasal

MC Casal. UX Strategist, Managing partner chez Relax In The Air

Son site : http://www.mccasal.com/

Pour la suivre : https://twitter.com/mccasal

Comment utiliser l’UX (l’expérience utilisateur) pour faire de la rétention, de la fidélisation. Les personnes que l’on dirige vers notre site doivent avoir une bonne UX sur notre site. Sinon, les faire venir ne sert à rien. Notez que l’UX commencer bien avant le site et se poursuit bien après. Voyons son cycle en 10 points.

1) La recherche utilisateur

IMG_20150522_112052Quels sont les publics à qui l’on veut s’adresser? Quels sont leurs objectifs? Quels sont les nôtres? Pour répondre à ces questions, on va pouvoir utiliser des outils quantitatifs (Webanalytics en cas de refonte d’un site, enquêtes, sondages, etc…) ou qualitatifs (observations, service client, interview, etc…).

Le but c’est de comprendre l’audience. On peut ensuite faire un persona, une sorte de profil de votre client idéal (consigné dans un document de référence qui peut évoluer en fonction des changement de comportement de vos clients). Et grâce à ça, on peut ensuite créer des stratégies utilisateur.

2) Contenus

IMG_20150522_112814Privilégiez la qualité et la pertinence à la quantité. En effet, avec la « mode » du Content marketing, le web est de plus en plus encombré. La qualité est l’un des meilleurs moyens pour sortir du lot. Il faut mettre au point une stratégie de contenu intégrant les besoins des clients et vos objectifs.

Enfin, ces contenus doivent être trouvables (ajout personnel : lorsque vous savez ce sur quoi vous devez écrire, utilisez des outils comme le planificateur de mot clé de Google pour trouver les mots clé liés avec de fortes recherches. Recherchez sur des forums ou des commentaires de blog les questions les plus posées sur le sujet. Ces question peuvent faire d’excellent titres, par exemple).

3) Contexte

Les gens sont hyper-connectés et reçoivent donc un flux constant d’informations. Plusieurs facteurs sont à prendre en compte lorsque vous envisagez le contexte dans lequel votre cible peut évoluer :

  • Le lieu ou ils consomment vos contenus. Cela conditionne le temps qu’ils ont et l’attention qu’ils leur portent
  • L’activité qu’ils sont en train de réaliser
  • Le cadre social. Les autres affectent notre comportement
  • Les médias qu’ils utilisent (Whats’App, Messenger, HangOut, Snapchat pour les messages? et pour les vidéos? etc…)
  • Les humeurs et les émotions.

L’étude du contexte a pour but de déterminer comment délivrer le contenu adéquat, au bon moment, qui déclenchera la bonne émotion, etc…

4) Conversion

IMG_20150522_113643Maintenant que l’on a compris le public, il faut aligner ça avec nos objectifs. Le but à cette étape est de comprendre leur parcours (ce que nos amis américains appellent la customer journey). Le slide représente la trame du document qui permet d’établir la customer journey.

Lorsque celle-ci est terminée, vous devez normalement avoir réussi à identifier d’éventuels obstacles. Vous avez aussi peut être trouvé des opportunités.

5) Formulaires

3 règles simples pour vos formulaires : simplicité, fluidité, séquence. Par ailleurs, vous devez prêter une attention toute particulière au mobile. Remplir un formulaire bien fait sur mobile n’est déjà pas facile. Alors s’il n’est pas bien fait, c’est une machine à faire fuir les utilisateurs.

Quelques best practices : pensez responsive, faites attention à la taille de vos bouton ainsi qu’à l’espacement et enfin, mettez vos labels au dessus des champs. Vous pouvez également proposer du Social Login (plutôt qu’un formulaire de connexion par exemple. Ajout personnel : j’ai lu par ailleurs que d’ici fin 2016, 60% des personnes se loggeront quasiment exclusivement avec leur compte social. N’attendez pas, le Social Login sur votre site est un must have)

6) Design

Voici quelques bonnes pratiques la aussi en ce qui concerne le design de votre site :

  • Supprimer le superflu. Si vous n’avez pas besoin de 3 colonnes, faites en une seule.
  • Placez plusieurs call-to-action (CTA) sur vos page. Si l’utilisateur doit scroller, que votre call-to-action est en haut de page et qu’il ne se retrouve pas en bas, il y a plus de chance qu’il s’en aille sans convertir
  • Jouez sur les contrastes. Attirez le regard sur les parties importantes. Pour ça, créez une hiérarchie visuelle. Gérez bien vos couleurs.
  • Ayez de la consistance vis-à-vis des éléments de votre site. Ne faites pas les boutons d’action différents selon les pages. Restez cohérent.
  • N’hésitez pas à ajouter des labels à vos boutons. Un bouton avec CTA en tout lettre induira toujours moins en erreur qu’un bouton avec une icone que l’on ne connait/comprend pas.
  • Ajustez la taille de vos textes. Comme la couleur, ça ajoute du contraste. Mettez vos titres en grand, vos sous-titres en moyen et vos paragraphes en petit (mais pas trop).

7) Tests

IMG_20150522_114952Pensez toujours que vous n’êtes pas le public cible. Vos intuitions ne doivent pas rentrer en ligne de compte. Testez, testez, testez! Faites des protocoles de tests, testez vos pages. Vous dirigez aléatoirement vos clients vers différentes variantes d’une même page et ceux-ci « décident » laquelle est la meilleure, tout simplement.

8) Analytics

Détectez les problèmes sur le site en utilisant des indicateurs tels que le taux de rebond ou le taux de sortie des pages. Utilisez le temps moyen passé sur la comme un indicateur d’interaction avec les utilisateurs et enfin faites de l’AB Testing incrémental (c’est à dire des toutes petites modifs à chaque fois) et mesurez l’impact dans Google Analytics.

Avis personnel : Je ne suis pas totalement d’accord avec cette analyse. Pour le taux de rebond (et donc le temps moyen passé par page), il faut nuancer. Une landing page peut par exemple avoir un fort taux de rebond parce que les utilisateurs doivent simplement laisser leurs coordonnées dans un formulaire. Il le font, ils valident, ils s’en vont. L’envoi du formulaire ne déclenche pas d’événement, dont pas d’interaction donc taux de rebond 100%. Un article de blog lu jusqu’au bout peut aussi être un rebond. La personne passe 10 minutes à lire l’article et s’en va. Taux de rebond 100%, durée sur la page : 0 sec. Plus d’infos ici : http://www.chablais-web.fr/les-erreurs-dinterpretation-les-plus-frequentes-dans-google-analytics-partie-1.php.

Idem pour le taux de sortie. C’est un faux indicateur (sauf rares exception). Les gens arrivent sur une page, ils s’en vont depuis une autre page. Mais c’est pas parce qu’ils sont sortis sur telle page que ça signifie que la page en question a un problème. Il est très difficile d’avoir une analyse pertinente en utilisant cette métrique.

Enfin pour les tests, moi je recommande au contraire des tests avec des changements significatifs. Changer les boutons de couleur ou les zone de texte d’emplacement sur la page n’a généralement qu’un petit effet (et surtout limité dans le temps).

Mon conseil, étudiez bien les tunnels de conversion (notamment avec les « nouveaux » rapports de flux). Détectez les page à fort abandon, investiguez, testez. Segmentez par device, par navigateur. Mettez en place un timer sur votre site afin d’avoir un taux de rebond beaucoup beaucoup plus précis (et aussi beaucoup plus faible). Vous pourrez ensuite l’utiliser de manière beaucoup plus adéquat.

9) Capitalisation

Capitalisez tous les feedbacks.

10) Culture et innovation

IMG_20150522_115828Le changement de culture doit venir de l’intérieur. Mais la on glisse vers un autre sujet, celui de la transformation digitale. Pour plus d’infos : http://www.chablais-web.fr/reussir-transformation-digitale-entreprise.php

Mon avis : Une conférence très intéressante. Dommage toutefois que le timing ait obligé à raccourcir un peu la présentation. Du coup on a pas pu voir le point 9.

Conf SEOCamp : Kévin Richard – Etude concurrentielle SEO

kevin-richard

Kévin Richard. Editeur de SEObserver, consultant SEO

Son site : http://www.seobserver.com/

Pour le suivre : https://twitter.com/512banque

Les principes de l’étude concurrentielle SEO

IMG_20150522_121045Etudier les leaders de son domaine est fondamental. La veille concurrentielle est primordiale pour gagner la première place. Ou pour la conserver. Etudier ses propres positions c’est la base. Mais ça ne vous emmène pas bien loin. Etudier les positions des autres c’est mieux. Mais comprendre pourquoi ils en sont la et pourquoi ils progressent / régressent, ça c’est vraiment intéressant.

Maintenant, voyons les outils dont on dispose pour faire ça. On va avoir des outils qui vont donner des estimations de trafic. Des outils comme Yooda, Semrush ou Searchmetrics par exemple. On va également avoir des outils qui vont monitorer les backlinks. Des outils tels que Ahref ou MajesticSEO. Enfin on peut avoir de l’outil tout-en-un avec SEObserver.

Méthodologie d’étude concurrentielle SEO

IMG_20150522_121622

Commencez par identifier mots clés les plus importants de votre secteur d’activité. Les requêtes les plus compétitives. Remontez dans le temps pour confronter les positions des uns et des autres sur une période donnée. Étudiez les stratégies et comprenez pourquoi un tel est descendu et pourquoi un tel est monté.

Pour ce faire, deux dimensions bien évidemment. Le On site. Pour ça utilisez archive.org. Pour les facteurs externes, les backlinks entre autre, on va regarder les données backlink et les mettre en relation avec l’historique de position du site en question. Avec un graphique c’est tout de suite plus parlant (voir slide ci-dessous). Tout permet de voir ce qui marche pour les sites en première place. C’est à dire quelles tactiques utilisent les sites n°1.

IMG_20150522_122510

Et bien justement voyons ce qui marche bien actuellement. D’après Kévin, les annuaires ça marche plutôt bien en ce moment. Tout le monde dit les annuaires ils ne faut surtout pas y aller mais de nombreux sites ont pu monter avec des annuaires il y a 6,8 mois et pour le moment tout va bien.

Autre chose qui fonctionne bien, ce sont les réseaux de sites privés (autrement appelé Pbn). Il s’agit d’un réseau de site (ou de blog) appartenant à la même personnes. Tous les sites du réseaux concourent à faire monter le site principal que ce soit par de la redirection, du backlink, du spammy pour faire montrer un site intermédiaire qui lui vise à faire monter le site principal.

Le principe consiste à racheter des nom de domaine expirés avec déjà des backlinks. Comme ça on ne part pas de zéro, on gagne du temps. Ce concept sera plus développé dans la conférence de Paul (partie 2).

Attention toutefois pour les Pbn. C’est dans le collimateur de Google depuis un moment donc il faut faire les choses bien (pas le même type de CMS, pas le meme registrar, pas acheté en même temps, pas le même hébergeur, pas le même whois, etc…).

Avant de passer à l’étape suivante qui est l’analyse de ce qu’est un bon backlink, il est intéressant de citer une phrase très sensée et importante de Kévin. En 2015, tout miser sur le SEO c’est très dangereux. Diversifiez votre stratégie d’acquisition. On est jamais sur de ne pas être touché par une nouvelle pénalité. On est à la merci d’un changement d’algorythme. Donc ne misez pas tout sur le SEO.

Je fais d’ailleurs un tout petit aparté puisqu’on parle de changement d’algorythme. Kévin a abordé Pinguin. Selon lui, Pinguoin c’est lié à 95% aux ancres optimisées même si les liens viennent de sites qui sont bons. A contrario, des liens aux ancres non optimisées sur des sites de très mauvaise qualité, pas de pingouin. J’ai su par la suite par Sylvain Peyronnet que la proportion d’ancres optimisées à ne pas dépasser pour ne pas risquer le coût de bâton c’est 3% de votre profil de linking. C’est peu.

Qu’est ce qu’un bon back link?

IMG_20150522_122806

Un bon backlink, c’est pas mal de choses :

  • Ranking : C’est un lien d’un site top ranké sur votre thématique (gros gros facteur ça).
  • Ancre : on l’a dit, attention au Pingouin. Pas plus de 3% d’ancres optimisées. Après, si vous n’en avez pas trop et que vous ne sur-optimisez pas, un lien ancré reste interessant
  • Trust : Seriez vous prêt à laisser vos coordonnées bancaires sur le site d’ou provient le lien? Si oui c’est trust.
  • Jus : Essentiel aussi. (c’est la popularité liée aux liens de la page qui vous fait le lien)
  • Contexte : Le lien situé dans le contenu va avoir beaucoup plus d’importance que le lien footer ou sidebar. A noter aussi que le texte qui entoure le lien est très important aussi.
  • Clic : Google connait le CTR des liens. Plus il y a de clics, meilleur c’est. Que ce soit grâce à Google Chrome (qui est finalement un gros mouchard) ou même par Google Analytics (installé sur la majorité des sites), Google sait tout ce qui se passe au niveau des clics.
  • Do/Nofollow : Qu’on se le dise clairement. Un lien en nofollow ne sert absolument à rien.

Au passage, un petit mot sur le PageRank. Il n’est plus mis à jour depuis un moment et aujourd’hui, un très bon indicateur permet en quelque sorte de remplacer le PR : le Trustflow de MajesticSEO. C’est son équivalent actuel.

Suivez et monitorez vos backlinks

Parce qu’on est jamais à l’abri qu’un concurrent fasse dans notre dos une campagne de négative SEO, il est primordial de monitorer vos backlinks. Kévin nous montre comment il a pu se retrouver il y a quelques temps avec des centaines de liens en provenance de livre d’or sur des sites pourris, le truc qui peut faire mal si on ne s’en rend pas compte (si on ne surveille pas).

IMG_20150522_124025La méthode (brièvement) c’est de vérifier déjà les liens dont on n’est pas à l’origine. Si vous n’avez rien fait pour et que de nouveaux liens sont faits il faut être vigilent. Vérifiez l’IP des sites, vérifiez l’extension du nom de domaine. En général, les liens spammy on les détecte assez facilement.

Que faire des ce cas la? On désavoue ces liens en masse auprès de Google.

Mon avis : J’ai adoré. Assez technique (bien que vulgarisé et survolé. Comme Kevin l’a dit il nous a présenté en 45 minutes ce qu’il présente d’habitude en 5 heure) j’ai appris la aussi pas mal de choses que je ne connaissais pas. En tout cas, ça me permet de prendre conscience de certains sujets que je vais pouvoir approfondir comme un grand.

Fin de cette première partie

Vu le temps que ca m’a pris (j’aurai pas cru tant en fait), la deuxième partie sera faite lundi. Disclaimer : les résumés des conférences se basent sur ma compréhension et les notes que j’ai pu prendre. J’espère ne pas avoir fait d’erreurs. Si vous en voyez et/ou si vous voyez des choses à rajouter que j’aurai oublié, commentez !

 

A propos de l’auteur

Responsable E-commerce pendant 6 ans. Gérant de mon agence Chablais Web pendant 3 ans. Désormais à la tête du Marketing Digital chez FirstPoint Sàrl en Suisse.

Spécialiste multi-certifié des solutions Google et Facebook, j’aide les entreprises à faire d’internet leur meilleur atout. Envie d’aller plus haut ? Contactez-moi.