Les sujets
Les stages
Vocabulaire
Contacte
Fautes à éviter lors de l'optimisation
Fautes fatales lors de l'optimisation de pages Web
On peut commettre un nombre important de fautes lors de l'optimisation de pages Web pour le référencement. Il est donc impossible de nommer ici chaque faute possible. Tous ce problèmes sont traités par la formation référenceur de la seo academy. Ici donc seulement les fautes majeurs que chaque Webmaster devrait éviter s'il veut que ses pages soient correctement référencées.
La faute la plus important est de négliger les titres de la page ou de ne pas utiliser les mots clés dominants dans ces titres. Chaque page a besoin de titres optimisés pour pouvoir être référencé correctement par les moteurs de recherche.
Même si les informations des metas ne joue plus le même rôle qu'il y a dix ans. Une partie de moteurs n'accepte pas de site dont les pages ne disposent pas d'un minimum de balises meta.
Négliger l'attribut alt compte également parmi les erreurs les plus courantes dans l'optimisation. Chaque image a besoin de alt. Les valeurs ne doivent pas se répéter, contenir de mots clé ou nécessaire et être conforme aux règles de l'optimisation.
Le texte de chaque page doit comporter au moins 400 mots et, si possible, pas plus que 1200. Les mots clé des titres doivent se répéter dans des endroits très précis. Fautes d'orthographe et de grammaire doivent être corrigés avant la publication des pages.
Aussi grave que le manque de titres est le manque de liens. Récemment mêmes les liens vers d'autres sites qui ont une relation avec le contenu de la page commencent à jouer un rôle. L'importance de liens de retour ne doit pas être négligé non plus.
L'utilisation excessive de JavaScript et de PHP nuit également au référencement. Les moteurs ne peuvent pas lire les scripts et n'aiment pas que le contenu de toutes les pages change avec chaque visite. Une navigation en JavaScript est absolument à éviter.
L'utilisation excessive des images et de Flash nuit aussi et empêche l'optimisation correcte d'une page Web. Les robots ne peuvent pas savoir qu'une image gérée par JAVA montre des éléments importants et ils ne peuvent pas lire Flash.
Une erreur de base de nombreuses Webmasters est de négliger la structuration du site. Une structure chaotique ou l'oubli de la règle de trois cliques élimine chaque effort de l'optimisation.
Chaque nouveau site de plus que 20 pages a besoin d'un sitemap qui est facile à comprendre par les robots. Joindre le fichier sitemap.xml est également devenu obligatoire pour un référencement correct.
Un faut récente est de négliger la soumission du site ou des pages aux moteurs de recherche. Même si Google, Live Search et Yahoo sont dominantes sur le marchée, pour qu'ils attribuent une importance à ces pages, ils fouillent aussi d'autres moteurs. Il est donc nécessaire de soumettre son site, selon contenu, à 50 à 200 moteurs de recherche.