fbpx

Comme vu dans l’article précédent :
Introduction au SEO – Les bases à connaître

L’architecture du code de votre site est un critère important en référencement naturel. En effet, un moteur de recherche doit pouvoir comprendre parfaitement le contenu de votre site et pouvoir y naviguer sans faille.

D’ailleurs, au sein de l’audit technique SEO que je propose, certains de conception sont aussi contrôlés car ils vont de paire avec le code, comme certains certains critères de maillage interne par exemple.

Le contrôle et l’optimisation du maillage des liens internes de votre site sont inclus dans une prestation spécifique

 

Cette liste comprend tous les points essentielles d’un site à sa bonne indexation sur Google ou Bing.

Et oui, pour Bing également car même si ce moteur de recherche est bien moins utiliser que Google, il est important et voir même opportun de s’y intéresser quand tous le monde ne cherche qu’a se placer sur Google.

La bonne nouvelle, depuis la fin de l’année dernière, est que le robot d’indexation “Bingbot” est passé en Evergreen, c’est à dire qu’il naviguera toujours avec la dernière version de Microsoft Edge.
Vous allez me dire ok, c’est très bien tout ça, mais en quoi c’est une bonne nouvelle ?
Et bien, il faut savoir que Google Chrome et Microsoft Edge utilisent tout deux la même technologie : Chromium.

Donc ce qui est bon techniquement en terme de code pour Google l’est maintenant pour Bing également.

 

Passons aux différents points de contrôles,  qui vont se découper en 3 catégories d’importances :

 Les erreurs à corriger en priorité :

 

–  L’ Absence d’URL canonique ou de redirection 301 depuis la page d’accueil HTTP
– Les Algorithmes de chiffrement non sécurisés
– La version de protocole de sécurité
– Les Balises canonical manquantes dans les pages AMP
– Les Balises de titre en double
– Les Balises de titre manquantes
– Votre Certificat enregistré au bon nom
– Les chaînes et boucles de redirection
– Les conflits d’attributs hreflang dans le code source de page
– Les contenu en double
– les descriptions Meta en double
– Les erreurs 4xx
– les erreurs 5xx
– l’expiration du certificat
– La taille de votre Fichier sitemap.xml
– Les fichiers JavaScript et CSS internes corrompus
– Le format du fichier robots.txt
– Le format du fichier sitemap.xml
– La taille de la page HTML
– Les images internes rompues
– Les liens internes rompus
– Les liens mal formés
– Les pages ne pouvant être indexées
– Les page impossibles à explorer
– Les pages non sécurisées
– Les URL canoniques multiples
– Les problèmes de résolution DNS
– Les problèmes de liens hreflang 
– Les problèmes de contenu mixte
– Les problèmes de résolution www
– Les redirections meta refresh
– Les URL canoniques rompues
– Les URL incorrectes dans le fichier sitemap.xml
– La configuration de la balise Viewport
– La vitesse de chargement pages (si trop lente)
– Les problèmes de déclaration Hreflang

Les défauts à corriger dans un second temps 

 

– L’absence de prise en charge de SNI
– Les attributs ALT manquants
– Les attributs hreflang et lang manquants
– Les attributs nofollow dans les liens internes sortants
– Le contenu Flash utilisé
– Les contenus en double dans la balise H1 et le titre
– Le Cryptage HTTP non utilisé
– Les Descriptions Meta manquantes
– Le Doctype non déclaré
– L’Encodage non déclaré
– Les fichiers Javascript et CSS décompressés
– Les fichiers Javascript et CSS non minimisés
– Les fichiers Javascript et CSS non mis en cache
– Les Frames utilisés
– Les balises H1 manquantes
– Les mages externes rompues
– Les liens externes rompus
– Les Liens menant vers des pages HTTP depuis la version HTTPS
– Les pages ayant un nombre de mots trop faible
– Les pages non compressées
– Les pages ayant un ratio texte / HTML faible
– Les redirections temporaires
– Les ressources internes bloquées dans robots.txt
– La présence du fichier Sitemap.xml
– Si le Sitemap.xml est précisé dans le fichier robots.txt
– La taille totale des fichiers JavaScript et CSS 
– Les tirets du bas dans l’URL
– La longueur des URL
– Le nombre de liens sur la page (s’il y’en a trop)
– Les paramètres d’URL (s’il y’en a trop)
– Le nombre de fichiers JavaScript et CSS (s’il y’en a trop)
– S’il y a des URL HTTP dans le fichier sitemap.xml pour un site HTTPS
– Les élément de titre trop court
– Les élément de titre trop long

Les défauts à en corriger en dernier : 

–  L’absence de prise en charge de HSTS
– Les Attributs nofollow dans les liens internes sortants
– Les liens bloqués par l’en-tête HTTP X-Robots-Tag : noindex
– Les fichiers JavaScript et CSS externes corrompus
– Les liens sans ancre
– Les pages n’ont qu’un lien interne
– Les pages orphelines dans Google Analytics (si possibilité de se connecter au compte)
– Les pages orphelines dans le sitemap
– La multiplicité des balise H1
– Les problèmes d’inadéquation de langue hreflang
– Le nombre de clic nécessaire pour accéder à chaque page. (Profondeur d’exploration de pages de plus de 3 clics)
– Les redirections internes permanentes
– Les ressources formatées en lien de page.
– Les ressources internes bloquées dans le fichier robots.txt
– La bonne présence du robots.txt 
– Le temps moyen avant interactivité du document
– Les URL trop longues

 

Si vous souhaitez avoir un audit de tous ces points de contrôle sur votre site, ainsi que les solutions à apporter et l’explication pour,
Indiquez moi le nombre de pages de votre site ICI en passant commande, et je vous enverrai l’audit technique SEO complet en 24 à 72h.