SEMSUMMIT 2017 : la rétrospective

semsummit 2017

Nous avons eu la chance d’assister à l’événement SEMSUMMIT du vendredi 31 mars au World Trade Center de Grenoble. Cet événement, dédié aux techniques d’acquisition de trafic et aux contenus, proposait 8 conférences avec des pointures dans chacun des domaines évoqués, et réunissait 120 participants.

En résumé, voici ce qu’il fallait retenir de cette journée :

Optimisations on-site

Dans sa conférence, Patrice Krysztofiak, revenait sur des techniques de référencement naturel gratuites mais parfois mises de côté :

  • Les lignes de commande des moteurs de recherche comme “site:” qui permettent d’identifier les pages indexées inutiles et les retirer
  • L’outil Google Search Console, qui mentionne les améliorations HTML, les balises META en double ou non renseignées, ou encore le marqueur de données très utile quand il est trop fastidieux de développer des scripts de reconnaissance pour les rich snippets
  • Le site PageSpeed Insights qui permet d’améliorer son “budget crawl”. Concrètement, et sans être trop technique : plus un site est rapide et accessible, plus Google va accorder du temps à visiter ce site et indexer ses pages. Le site PageSpeed Insights accorde une note de 0 à 100%, il prend en compte les erreurs JS et CSS, l’optimisation des images, la mise en cache… Il n’est heureusement pas nécessaire d’arriver au résultat de 100% pour avoir une bonne note. On considère qu’une note de 85% est suffisante.

Stratégie de netlinking en 2017

Le netlinking, c’est le nerf de la guerre, le talon d’achille de Google. C’est aussi ce qui vient contrer ce qui lui rapporte le plus de revenus aujourd’hui : la publicité avec Google AdWords.

Avec le temps, les référenceurs ont dû adapter leurs méthodes de netlinking aux nombreuses mises à jour de l’algorithme. En 2017, les méthodes de netlinking consistent à :

  • Demander autour de soi : commerces locaux, amis…
  • Utiliser des réseaux privés
  • Acheter des liens – bien que cela soit risqué et pénalisé par Google s’il les découvre
  • Créer des PBN ou Private Blog Network (solution la plus sûre pour Paul Sanches à ce jour), c’est à dire créer des sites très thématiques pour mettre en avant le site principal
  • …et offrir des bonbons (ou des tablettes de chocolat pour La Haute Société)…pour avoir des liens en retour bien sûr !
    Remercions au passage Patrice Krysztofiak qui en a profité pour offrir des bonbons à toute l’assistance.

Distribution de bonbons au #SEMSummit . Pour avoir des liens en 2017 : offrez des bonbons !

A post shared by Fred Olivieri (@fred.olivieri) on

Si généralement les liens de faible qualité sont à éviter comme les sites d’annuaires, de communiqué de presse, de commentaires de blogs, Kévin Richard* a pu montrer une étude de cas très concrète qui prouve l’inverse sur certains cas précis. Lors d’une étude de cas sur un site de massage, il a montré clairement qu’un site pouvait se positionner avec des liens d’annuaires de faible qualité.

Enfin, Julien Jimenez et Romain Mikula, dans leur excellent échange de questions/réponses sur le référencement naturel, abordaient des cas intéressants, notamment :

  • Pour dépasser un concurrent ayant un nom de domaine de plus de 15 ans, on peut adopter comme stratégie d’acheter un nom de domaine avec encore plus d’antériorité
  • Avec un concurrent ayant un réseau de 150 sites, cela va peut être nécessiter de créer un réseau encore plus gros que le sien

 

Mais finalement, quelle que soit la méthode, ces rappels s’appliquent à tous les cas :

  • Profiter au maximum de chaque opportunité de lien
  • Être patient : même avec de beaux liens, cela peut prendre du temps
  • Privilégier la qualité des liens à la quantité
  • … mais avant tout penser aux contenus et aux utilisateurs

 

Mise à jour de l’algorithme Google Fred

Google ayant déployé sa mise à jour d’algorithme au début du mois de mars, ce sujet allait forcément être abordé lors du SEMSUMMIT. Comme à son habitude, Google n’a pas apporté d’informations précises sur le sujet et notamment sur la nature des pénalités.

Abordé lors des conférences de Julien Jimenez et Romain Mikula, et la conférence de Paul Sanches, à ce jour nous ne pouvons pas tirer de conclusions définitives sur la mise à jour de l’algorithme, même si tous se rejoignent sur les contenus de faible qualité. Finalement, quoi de plus logique pour Google que de présenter du contenu pertinent : “Ce que Google veut, c’est ce que l’utilisateur veut”.

Ce que Google veut, c’est ce que l’utilisateur veut.

Content is (still) king

On ne vous apprendra rien en disant que les sites sont doivent avant tout faits pour les utilisateurs, et c’est aussi le cas pour les contenus. Ces mêmes contenus ont un impact direct sur le référencement naturel d’un site, c’est ce que rappelait Sébastien Raynoird-Thal dans sa conférence.

En revanche, il y a des différences importantes dans la rédaction dite “classique” et la rédaction pour le web. La rédaction adaptée au web doit impérativement respecter des critères prédéfinis, tels que :

  • des sous-titres de 10 mots maximum
  • des phrases courtes de 25 mots maximum
  • une seule idée par paragraphe
  • …et bien sûr inclure des mots clés dans la sémantique de la page à la fois dans les sous-titres et les pages

 

Pour Paul Sanches, il faut également profiter de la création de contenu pour générer des liens, par exemple avec des guides, des baromètres pour prouver une expertise dans un domaine, ou des infographies (oh le gros mot en 2017…) qui seront partagées et citées… avec un lien vers la source.

Enfin, il est bon de rappeler que l’utilisateur doit rester la cible de ce contenu. En 8 secondes seulement, un internaute peut quitter une page si le texte n’est pas ergonomique.

Tout cela ne serait rien sans le story-telling dont parle Lionel Clément. Cela consiste à travailler la sémantique des contenus, à réfléchir au fond aux questions et aux problèmes que se posent les internautes. Au delà du référencement, le story-telling s’applique aussi aux réseaux sociaux (SMO), ou même l’email marketing.

Mais pour répondre aux interrogations des utilisateurs, il faut avant tout les connaître, et c’est ici qu’interviennent les personas, c’est à dire les futurs utilisateurs et lecteurs d’un site. Si vous n’êtes pas déjà un fervent lecteur de ce blog, je vous invite au passage à lire l’excellent article de Clément Langlois sur les personas.

Dans le référencement payant comme AdWords, on peut répondre également à cette problématique par la définition d’une audience comme le signale Adrien Tang de Google. A partir d’une audience générale, on peut l’affiner avec le temps, il n’y a pas de raccourcis pour faire les choses proprement.

Qu’il s’agisse de SEO ou de SEA, Adrien Tang rappelle que dans une société où l’on prône le marketing one-to-one et où les comportements changent constamment, il est illusoire de croire qu’une audience est statique. Tout comme les comportement, les audiences évoluent également.

Et l’avenir, dans tout ça ?

A quelques jours de la présentation de Google au salon E-commerce One to One sur “l’âge de l’assistance”, la conférence de Pierre-Marie Servel de Bing visait à démontrer l’importance des assistants intelligents de demain, c’est à dire les outils comme Siri, Cortana, ou plus récemment les chatbots.

Selon lui, l’avenir des moteurs de recherche se tourne vers le “machine learning” qui consiste notamment à apprendre du consommateur, s’adapter, et comprendre le langage naturel. En résumé, l’avenir des moteurs de recherche s’articulent autour de 3 axes :

  • la personnalisation : le moteur apprend des recherches et des comportements de l’utilisateur et peut s’adapter à lui, pour finalement proposer les bons liens au bon moment
  • l’omni-présence : nous avons aujourd’hui en moyenne 4 appareils connectés par personne. En 2020, Microsoft estime que 90% des voitures seront connectées.
  • la prédiction : les moteurs de recherche sont déjà prédictifs via des suggestions de recherche, mais n’ont aujourd’hui pas assez d’informations sur les utilisateurs pour être réellement prédictifs dans leurs comportements.

Les moteurs de recherche sont également en train de s’adapter à la recherche vocale. D’ici 2020, Bing estime qu’une requête sur deux sera vocale. A date, la recherche vocale représente 25% des requêtes aux Etats-Unis et 10% en France.

Pierre-Marie Servel constate également des différences notables entre les requêtes écrites et vocales. Aujourd’hui, sur le moteur de recherche Bing, une requête écrite contient 2 mots (exemple : match Arsenal), quand elle contient 8 mots pour une requête vocale (exemple : « Qui a gagné le match contre Arsenal ?« ).

Toutefois, le but d’un moteur de recherche étant de répondre à l’utilisateur, on ne peut pas attendre de lui une confrontation des opinions. Une fois qu’un utilisateur est suffisamment reconnu et identifié, on peut très bien imaginer qu’un moteur de recherche conforte les opinions de son utilisateur sans les remettre en cause.

Merci !

Cette journée était très enrichissante, de par la qualité des intervenants et des thèmes abordés dans les conférences. Le pari est réussi, on ne peut qu’ésperer une suite à cet évènement qui faisait sa grande première cette année.

*qui a osé utiliser du Comic Sans MS pour sa conférence. Son ordinateur est signalé disparu depuis cette intervention.