Skip links

Cycle de vie d’un contenu réfléchi

Il y a déjà eu pléthore d’écrits à propos de la nécessité de concevoir des contenus de “qualité” pour satisfaire à la fois l’utilisateur et le moteur de recherche ; outre le fait que ces articles oublient qu’un contenu écrit n’est pas toujours conçu dans une perspective de visibilité, la plupart se contentent de ressasser les mêmes conseils élimés depuis que Google a complexifié ses méthodologies de classement de résultats de recherche, sans toutefois préciser vraiment ce qu’est un contenu de “qualité” : il faudrait ainsi faire des “articles originaux”, “concis”, “avec des mots-clefs intéressants”, “respecter les principaux standards d’optimisation”, “graisser les expressions importantes”, “faire du maillage interne”, “donner des informations pertinentes aux internautes”…

Arrêtons là cette sinécure de Panurge et, sans prétendre détenir les clefs de la Vérité, intéressons-nous simplement à ce que nous, chez Azincourt, croyons être le cycle de vie d’un contenu idéal, celui qui performe à la fois sur le moteur de recherche et alpague l’internaute pour mieux le glisser dans ses filets.

Cycle de vie d'un contenu réfléchi et optimisé seo

I. L’analyse d’intentions

Nous avons déjà beaucoup parlé de l’analyse d’intentions utilisateurs dans notre article dédié, où nous vous expliquions que les pratiques de classement des résultats de recherche ont beaucoup évolué et que Google ne se fonde plus sur des mots-clefs pour interroger les contenus, mais sur les intentions des internautes. Le récent déploiement de l’algorithme BERT ne fait que confirmer cette tendance significative et parachève la volonté de Google de se transformer en véritable moteur de réponse (s’il était besoin d’une preuve tangible quant à ses velléités !).

Les faits sont là, et les ignorer serait absurde : les résultats affichés à l’utilisateur, lorsqu’il effectue une recherche, sont le fruit d’une interprétation sémantique, et donc d’une interprétation de son intention de recherche. En d’autres termes, les pages que Google présente à l’internaute répondent à son besoin, et non aux mots-clefs contenus dans sa requête. Vous ne parvenez pas à saisir la différence ? Nous vous invitons à lire attentivement notre article consacré à ce sujet.

Il est malheureux, aujourd’hui, en 2019, qu’un certain nombre d’articles sont encore consacrés à de la recherche de mots-clefs pour la composition de contenus optimisés sur le web. On vient de le voir, cela n’a plus aucun sens : ce sont là des méthodologies de travail obsolètes héritées du début des années 2010, lorsque cela fonctionnait encore très bien et que l’on pouvait s’encanailler avec quelques articles boostés au keyword stuffing. Cela ne suffit plus aujourd’hui ; c’est même contre-productif.

Du reste, résumons cette méthodologie d’analyse d’intentions :

  1. Récolte des expressions initiales à partir des services / produits : où l’on dresse ici un inventaire de nos services ou de nos produits sous forme d’expressions listées, lesquelles seront utilisées lors de la deuxième étape.
  2. Récolte des expressions utilisateurs : phase relative à la collecte des expressions tapées par les internautes dans Google, notamment grâce à l’exploitation du Suggest.
  3. Circonscription des typologies d’intentions : tamisage et retraitement des expressions utilisateurs issues du Suggest. C’est ici que l’on définit clairement les intentions des internautes.
  4. Préparation de l’écriture des contenus : maintenant que l’on connaît les intentions des utilisateurs, il est possible de structurer ses contenus, notamment ceux qui sont conçus dans un objectif de visibilité.

Comme vous avez le loisir de le constater, il n’y a rien d’incroyable ni d’ésotérique là-dedans (et tout est expliqué dans notre article !) : en retraitant un grand volume d’expressions, il est possible de saisir au vol l’intention de la plupart des internautes pour un service ou un produit donné.

S’il est utile de le préciser : cette phase n’est en aucun cas facultative, elle est même absolument impérative si l’on souhaite un tant soit peu développer la visibilité de ses contenus !

II. Cartographie de visibilité

L’on pourrait se contenter d’une analyse d’intentions avant de définir la stratégie SEO à mettre en oeuvre sur le site, voire la stratégie éditoriale à déployer au fil des semaines ou des mois ; ce serait là une erreur, ou presque, car l’analyse d’intentions a besoin d’être orientée et canalisée avec une cartographie de visibilité.

Que l’on se rassure, il ne s’agit pas ici de se saisir d’un parchemin et d’une bouteille d’encre pour tracer à main levée les contours d’un continent inconnu ; cela dit, l’exercice y ressemble assez bien.

Permettez-moi d’abord de vous énoncer un simple constat : aujourd’hui (en 2019, toujours), il est devenu vain d’effectuer un suivi à la culotte de ses positions sur Google. Les enragés des “classements”, des “places gagnées” et des “places perdues” m’agiteront sous le nez une forêt de doigts levés, mais il est nécessaire d’être ici un peu raisonnable : croyez-vous seulement une seconde qu’un résultat en “première position” dans les résultats de recherche actuels, celui qui côtoie une Position zéro, des Autres Questions Posées, une Gmap, des Ads, un Knowledge Graph, une Vidéo, croyez-vous que ce premier résultat esseulé parmi ce fatras d’éléments criards est aussi visible que son alter ego en 2012 ? La réponse est non, bien évidemment, et il n’est nul besoin d’y réfléchir trois heures. Cela peut tout au plus aujourd’hui donner une idée assez vague de son taux de visibilité, mais cela n’est pas (plus) un indicateur fiable pour savoir si un site performe ou non dans les résultats de recherche.

Deuxième constat pour enfoncer le clou dans le cercueil des croyances périmées : on s’oriente clairement vers une ultra-personnalisation des résultats de recherche en fonction du profil de l’utilisateur. Tous les indices sont là chez Google : l’index mobile qui peut différer du desktop, la récurrence de résultats de recherche déjà visités, la géolocalisation, les requêtes vocales… et demain, des résultats taillés sur mesure ? Dans ces conditions, être “premier” ou “cinquième” n’aura plus aucun sens non plus, puisque l’on pourra être “premier” chez tel utilisateur, et “onzième” chez tel autre.

En attendant cet avenir glorieux où le SEO sera définitivement mort, ou presque, il est possible d’utiliser les données de position pour les retraiter avec intelligence, et essayer de déterminer la visibilité du site sur tel segment thématique, et donc sur tel segment d’intention !

Cette méthodologie de cartographie de visibilité fera certainement l’objet d’un article ultérieur, aussi allons-nous seulement en esquisser les grandes lignes.

L’objectif est le suivant : déterminer sur quelles typologies d’intentions le site existant rayonne ou, au contraire, est en souffrance dans les résultats de recherche afin de calibrer la future conception de contenus.

Tout comme l’analyse d’intentions, qui repose sur les expressions utilisateurs, nous allons utiliser les positions à l’instant T d’un site afin d’en saisir un cliché assez fidèle. Différents outils existent pour récupérer ces fameuses positions ; si possible, il est préférable de les exporter intégralement, puis il conviendra de les trier par hiérarchie de visibilité (ou “top position”, pour ses amoureux transis). Les positions supérieures à 10 seront de facto considérées comme en déficit de visibilité (car, d’ordinaire, en-dehors de la première page des résultats de recherche). Celles qui sont dans le top 10 peuvent être redécoupées en deux catégories : top 3 et top 4 à 10, ce qui nous permettra d’avoir une idée assez précise sur leur indice de visibilité.

Vient ensuite un exercice analogue à l’analyse d’intentions : les positions seront retraitées sous un logiciel d’analyse sémantique afin de déterminer les axes thématiques sur lesquels le site brille particulièrement ou non. Est-ce sur sa marque ? Sur ses produits “chaussures noires” ? Sur ses articles de blog ?

La suite des opérations est assez aisée à comprendre : il sera dès lors nécessaire de consolider les positions acquises et de renforcer celles qui sont en déficit de visibilité via une production de contenus chirurgicale. De même que l’on n’envoie pas ses soldats au front au hasard, on s’attaque en priorité aux différents points chauds que l’on a identifié… autrement quoi cela s’appelle naviguer à l’aveugle, et les probabilités de réussite sont minimes. Cette méthodologie conditionne bien évidemment les différentes interventions postérieures, côté SEO d’abord, stratégie éditoriale aussi, nous l’avons déjà cité, car elle impacte le calendrier de conception et de publication.

Évidemment, la cartographie de visibilité vaut surtout pour un site existant, engoncé jusqu’à la moelle dans le Verdun des résultats de recherche. Toutefois, il est possible de répliquer l’exercice pour ses concurrents afin, justement, de déterminer les axes sur lesquels ils sont particulièrement visibles ou non, ce qui permet d’obtenir une vision précise des efforts à déployer en termes d’acquisition d’audience (et, bien entendu, des contenus à concevoir en priorité pour les affronter sur le champ de bataille). Une cartographie de visibilité devrait d’ailleurs toujours s’accompagner d’un volet concurrentiel !

écriture seo ultra haute qualité

III. Écriture ciselée d’or

L’on pourrait penser avoir accompli la partie la plus ardue ; il n’en est rien. La véritable gageure commence ici, à savoir la conception des contenus !

Vous aurez peut-être remarqué qu’ici, chez Azincourt, nous parlons beaucoup d'”écriture”, de “conception” et de “réalisation”, et finalement pas du tout de “rédaction” ; il faut dire que le terme de “rédaction” et de “rédacteur” a malheureusement une connotation assez négative. Le rédacteur, chez beaucoup, c’est ce triste nègre qui se contente de recevoir son brief et d’aligner des piges au kilomètre toute la journée pour gagner sa croûte. Cela reflète certes une certaine réalité du métier (une terrible réalité, oserais-je ajouter), où le rédacteur demeure un strict exécutant, néanmoins, vous l’aurez compris, ce n’est pas ce que nous faisons chez nous ; nos compétences nous permettent déjà d’être force de conseil, et nous ne rédigeons pas, nous écrivons ; si vous ne saisissiez pas la nuance, dites-vous que nous rajoutons une surcouche de style sur l’écriture brute, et que c’est ce qui fait la différence, par exemple, entre un simple dessin et une belle peinture à l’huile – sans préjuger aucunement de la qualité du dessin !

Trêve de forfanterie, et halte à l’aparté, nous ne sommes pas là pour nous vanter, mais pour causer écriture. Hormis si l’on verse dans la littérature, produire du contenu pour du contenu est vain si l’on ne se fixe pas des objectifs en amont :

  • D’acquisition : contenu visant à capter de l’audience sur les résultats de recherche.
  • D’information : contenu visant à renseigner l’utilisateur vis-à-vis de sa requête.
  • De conversion : contenu incitant l’utilisateur à acheter un produit ou à remplir un devis.
  • D’engagement : contenu visant à fidéliser l’internaute.
  • D’image : contenu créé avant tout pour développer l’image et la notoriété du site / de l’entreprise.

Il s’agit, a priori, des cinq principaux objectifs à laquelle répond toute stratégie de contenu digne de ce nom. Naturellement, la réalisation desdits contenus sera différente en fonction de la typologie d’objectif que l’on souhaite atteindre. Un texte à objectif d’acquisition devra scrupuleusement respecter la structure et les intentions définies lors de l’analyse éponyme, tandis qu’un texte à objectif d’image peut complètement s’en libérer pour pleinement verser dans l’écriture créative… et au cas où : il est bien entendu possible de produire un texte répondant à plusieurs objectifs !

À dire vrai, tels que représentés ici, ces cinq objectifs sont triés en fonction du degré de discipline auquel l’écrivant doit s’astreindre lors de la conception du texte, l’objectif d’acquisition étant le plus fort, et l’objectif d’image, le moins fort. Toutefois, nous l’avons déjà remarqué, l’analyse d’intentions et la cartographie de visibilité produisent un impact sur la stratégie éditoriale qui s’enracine sur le site, ne serait-ce que par la définition des priorités et le calendrier des publications au fil du temps.

Quoi qu’il en soit, hormis le respect de l’intention pour maximiser ses chances de visibilité, et à l’exception des contraintes liées au format ou à l’objectif visé, il n’existe plus (pas ?) vraiment de règles contraignantes à prendre en considération lors de l’écriture des contenus. Insérer plusieurs fois tel ou tel mot-clef ? On l’a dit, on s’en fiche dorénavant comme d’une guigne. Faire simple et concis ? Certes, c’est mieux lorsque l’on réalise des accroches, mais en réalité, passé la phase de récolte d’informations et de lecture en diagonale, l’internaute lit lorsqu’il est harponné, et il peut lire beaucoup. Patatras ! L’utilisateur ne serait-il pas aussi décérébré que l’on aurait pensé ?

Question rhétorique, évidemment. Capter l’internaute avec des analyses d’intentions et de visibilité, c’est bien, encore faut-il le conserver chez soi, et dieu sait que cela est compliqué dans notre économie de l’attention. Chez Azincourt, c’est aussi là où nous intervenons !

IV. Analyse des données

L’analyse des données fait ici référence à l’analyse des résultats produits par les contenus ; puisque l’on s’est fixé en amont des objectifs à atteindre, on devrait être capable de mesurer leur réussite !

Cette approche par Indicateurs Clefs de Performance n’est pas nouvelle et une abondante littérature a déjà été consacrée à ce sujet, il ne sera donc pas question ici d’ânonner bêtement ce que d’autres ont développé ailleurs. Il semblait cependant utile de rappeler que, tout comme on ne réalise pas du contenu pour du contenu, ces derniers doivent également permettre une mesure tangible de leurs effets dans la stratégie numérique déployée par le site. Le pauvre rédacteur, situé en bout de chaîne, a rarement l’occasion de s’exprimer là-dessus ; ce n’est pas notre cas.

Quelle que soit la typologie de texte, il est donc souhaitable d’en analyser avec finesse les résultats :

  • Contenu d’acquisition : les visites / sessions en volume, découpées pourquoi pas selon les canaux d’acquisition ;
  • Contenu d’information : pour vérifier si l’utilisateur a trouvé et consommé l’information, le mieux reste encore de se rabattre sur des KPI d’engagement – temps de lecture, rebond, moyenne de scroll de la page.
  • Contenu de conversion : l’utilisateur a-t-il converti ? On peut par exemple le résumer avec le nombre de clics sur les CTA, les mises au panier, le chiffre d’affaires généré par la page…
  • Contenu d’engagement : comment mesurer l’engagement des visiteurs autrement que par le temps passé sur une page et le rebond ? On peut le corréler là aussi à des clics sur des CTA, des abonnements à la newsletter, des inscriptions, le nombre de visiteurs récurrents…
  • Contenu d’image : on jouera ici sur des KPI de popularité. Le nombre de sessions, le nombre de “vues”, le nombre de partages, le nombre de “j’aime”…

S’il est utile de le rappeler, la récolte et l’analyse de données se présente essentiellement comme une aide décisionnelle, laquelle permet d’influer sur les stratégies numériques en cours, d’en mesurer les gains, de la conforter dans sa structure initiale, ou au contraire de la corriger si les résultats ne produisent pas les effets escomptés. Les contenus n’échappent pas à cette règle, et dans le cas de l’UX Writing, cela peut même donner lieu à un test A/B où il s’agira de comparer les accroches les plus efficientes afin de sélectionner celle qui enregistre le plus de résultats.

Nous voilà arrivés au bout de cet article, et vous avez dorénavant toutes les cartes en main pour attaquer une conception de contenus efficiente et mesurable, oserions-nous même dire “optimale” pour affronter les problématiques du contenu web en 2019. Ce n’est pas très compliqué en soi, cela nécessite juste de la rigueur, de la patience et, il faut bien l’avouer aussi, un peu de talent pour jongler entre toutes ces compétences.