Les problèmes du contenu double

Contenu double et problèmes d'optimisation

Proposes de contenu texte double aux moteurs de recherche est un de problèmes majeures de l'optimisation. Les algorithmes des robots, surtout de Google, sont toujours à la recherche de contenu double et pénalisent de tels sites. Il peut même arriver qu'un moteur mette un tel site sur la liste noire.

Un site en double ou la copie d'un site

Il y a encore de Webmasters qui pensent que deux sites du même contenu sur deux serveurs distincts pourraient augmenter leurs visiteurs uniques. Même si l'idée semble peut-être bonne, cette méthode est plutôt nuisible que favorable. Les moteurs de recherche n'aiment pas remplir leurs bases de données avec de pages qui proposent un contenu qui existe déjà. Pour les moteurs, cela est du spam et signifie que de telles pages (et sites) ne rentrent pas dans leur index.
 
Si un Webmaster met donc un site en double sur un serveur il est obligé à bloquer ce site entier aux moteurs et cela ne pas seulement dans le robots.txt mais chaque page et chaque lien individuellement par l'utilisation propice des balises, attributs et valeurs.

Du propre texte en double

Ce qui compte pour le site entier compte également pour chaque page et même pour chaque section, chaque paragraphe et chaque phrase.
 
Il est évident qu'il y a parfois de pages qui parlent de sujets voisins où quelques phrases pourraient se logiquement répéter. Mais même si un contenu double semble propice dans ce cas, aucun référenceur ou Webmaster spécialisé en web copywriting utilise dans ici les mêmes phrases mais les rédige d'une autre manière. Il emploi des synonymes, changent la structure des phrases et dit la même chose en utilisant d'autres mots. De cette manière les robots ne considèrent le texte plus en double mais comme contenu unique.

Le texte d'autres sites comme contenu double

Il y a de nombreux sites, souvent entretenus par quelques référenceurs, qui proposent l'emploi de leur contenu textuel gratuitement (contre un lien de retour) dans d'autres sites. Leur calcul est clair. De plus de liens qui pointent vers leurs pages de plus leurs pages montent dans les résultats des moteurs de recherche.
 
Ce que ces référenceurs ne disent pas est le fait que les algorithmes des robots considèrent ces textes comme contenu double et pénalisent son emploi.
 
Mais vu que les algorithmes des moteurs "savent" quel texte est l'originale et que le premier texte publié sur Internet soit considéré comme contenu unique, l'original ne sera pas "punie".

Contenu double volé

Ce qui compte pour le contenu double dont la copie est autorisée compte également pour le contenu double qui est repris d'autres sites sans l'autorisation de l'auteur.
 
Mais utiliser un texte d'autres sites, sans permission par écrit, pose, en plus, de problèmes légaux. Chaque texte publié, n'importe sur quel support, est protégée par la loi et la propriété de l'auteur. Il est donc hors question pour un Webmaster professionnel à copier une seule phrase qui a été déjà publié sur Internet, dans un livre ou un journal.
 
Les liens suivants proposent des articles qui traitent le problème qu'un contenu double peut créer :
Webmaster Guidelines
Duplicate Content: How Does it Affect Your Rankings?
Similar Page Checker