Deuxième pas dans l'optimisation de sites

L'invisible dans l'optimisation de sites pour le référencement

Validation et optimisation

L'optimisation de sites Web pour le référencement ne s'arrête pas le moment où le site soit optiquement terminé. C'est seulement le moment de tester ses pages sur l'accessibilité et l'usabilité et de valider ses pages HTML, xhtml et CSS pour, ensuite, établir le sitemap, de définir le rythme de la mise à jour et de rédiger les fichiers robots.txt et sitemap.xml.
 
Tous les robots vérifient si le code de pages soit valide, vu que seule les pages valides s'affichent correctement dans les divers navigateurs installés dans plusieurs systèmes d'exploitation et partout dans le monde. Et seule la validation de sites entiers garantit que les pages s'afficheront aussi encore dans l'avenir correctement. Il est donc logique que l'optimisation de chaque page, en utilisant un des validateurs, soit une obligation pour chaque Webmaster.

Le fichier robots.txt

Chaque site comporte de pages qui ne sont pas destinées aux algorithmes et ainsi aux bases de données des moteurs de recherche. Vu que les metas et les balises <link /> ne sont pas lus par chaque robot, il est nécessaire d'écrire un fichier robots.txt lors de l'optimisation pour le référencement.

Une page Web est, en règle générale, destinée à être vu par un maximum d'internautes. C'est la raison pourquoi l'optimisation pour le référencement inclut l'optimisation d'accessibilité et de l'usabilité. Etre accessible signifie que chaque internaute peut accéder à chaque élément d'un site, même s'il soit malvoyante, aura de problèmes à voir quelques couleurs correctement, s'il entendent mal ou s'il veut utiliser le clavier au lieu de la souris. Et il doit accéder au contenu aussi facilement et le plus vite possible.
 
Chaque robot des moteurs de recherche regarde, avant de fouiller un site, s'il rencontre le fichier robots.txt. Ce petit fichier joue donc également un rôle important lors de l'optimisation de pages pour le référencement. Dans ces fichiers les robots reçoivent l'information qu'elles pages, donc quels dossiers et fichiers, ne soient pas destinées aux référencement et si le site dispose du fichier sitemap.xml. Le manque du fichier robots.txt sera la première erreur 404 que les robots enregistrent et constitue donc le premier point négative pour les moteurs.

Les sitemaps

Il y a de robots et des rédacteurs d'annuaires qui fouillent les sitemaps pour comprendre la structure d'un site avant de le référencer. Mais cette page sert également aux internautes qui ne veulent pas perdre du temps à la recherche des pages Web.

Le fichier sitemap.xml est également un élément essentiel pour l'optimisation des pages Web. Grâce à ce fichier les robots gagnent du temps et peuvent indexer les pages selon l'importance de chaque page, et récupérer des informations qui leur permettent de "comprendre" la structure du site entier et fournir PageRank (PR), TrustRank (TR) ou BrowseRank (BR).
 
L'actualisation des pages joue également un rôle pour le référencement, donc aussi pour l'optimisation d'un site. Vu que les robots accèdent aux informations du serveur il est erroné de croire qu'un fichier en php ou JavaScript puisse les tromper. Les algorithmes des robots sont très performantes et découvrent les essaies de triche. Les scripts sont très mal vues par les robots et le site risque plutôt être banné de la base de donnée que de trouver un bon emplacement. Et toutefois, le rythme de l'actualisation joue en rôle lors de l'optimisation et pour le référencement par les moteurs de recherche