Le SEO technique n’est pas une optimisation cosmétique. C’est l’analyse et la correction des problèmes d’infrastructure qui empêchent Google de crawler, indexer et classer votre site. Cela inclut : l’analyse de logs serveur, la gestion du budget crawl, les Core Web Vitals, le rendu JavaScript, et l’indexation différentielle. Sans ces fondations, aucune stratégie de contenu ne fonctionne.
Qu’est-ce que le SEO technique ?
Le SEO technique est l’ensemble des optimisations qui permettent à Google de crawler efficacement votre site, indexer vos pages sans erreur, et les classer sans pénalité de performance.
Contrairement au SEO on-page (contenu, mots-clés) ou au netlinking, le SEO technique ne parle pas de “visibilité”. Il parle de :
- Accessibilité : Google peut-il atteindre vos pages ?
- Compréhension : Google comprend-il ce qu’il crawle ?
- Performance : Votre site répond-il assez vite ?
- Indexabilité : Vos pages sont-elles réellement indexées ?
Sans SEO technique solide, vous laissez 30 à 50% de votre potentiel SEO sur la table.
1. Crawl & Indexation : Les Fondations
Pourquoi analyser les logs serveur ?
Les logs serveur sont votre source de vérité. Ils montrent exactement ce que Google a crawlé, combien de fois, et quels codes HTTP il a reçus.
Ce que vous découvrez en analysant les logs :
| Problème | Impact | Symptôme dans les logs |
|---|---|---|
| Pages non crawlées | Aucun classement possible | Absence d’entrées pour l’URL |
| Redirects en chaîne | Gaspillage du budget crawl | 301 → 301 → 200 |
| Erreurs 5xx intermittentes | Indexation partielle | Codes 500/503 sporadiques |
| Crawl inefficace | Perte de budget | 1000+ requêtes/jour sur du contenu dupliqué |
| Blocage robots.txt | Pages invisibles à Google | Codes 200 mais pas d’indexation |
Exemple concret : Un site e-commerce avec 50k URLs avait un budget crawl de 200 pages/jour. L’analyse des logs a révélé que Google crawlait 80% de facettes de filtrage (paramètres d’URL inutiles). Après optimisation du robots.txt, le budget s’est concentré sur les produits réels. Résultat : +35% de pages indexées en 3 mois.
Budget crawl : Comprendre et l’optimiser
Google alloue un “budget crawl” à chaque site. C’est le nombre de pages qu’il crawlera par jour. Ce budget dépend de :
- L’autorité de votre domaine (plus vous avez de backlinks, plus le budget augmente)
- La vitesse de votre serveur (les sites lents reçoivent moins de crawl)
- La qualité de votre structure (les sites bien organisés sont crawlés plus efficacement)
Comment optimiser votre budget crawl :
- Bloquer le contenu non-indexable via robots.txt :
- Paramètres de session (jsessionid, sid)
- Pages de filtrage e-commerce (facettes)
- Versions imprimables, PDF générés dynamiquement
- Pages de pagination infinies
- Consolider les URLs dupliquées :
- Utiliser les canonical tags correctement
- Éviter les paramètres UTM sur les URLs canoniques
- Fusionner les variantes (http/https, www/non-www)
- Améliorer la vitesse serveur :
- Réduire le temps de réponse TTFB (Time To First Byte) sous 600ms
- Utiliser un CDN pour les assets statiques
- Optimiser les requêtes base de données
Checklist rapide :
- Avez-vous analysé vos logs serveur des 3 derniers mois ?
- Avez-vous identifié les URLs les plus crawlées ?
- Bloquez-vous les paramètres inutiles dans robots.txt ?
- Votre TTFB est-il inférieur à 600ms ?
2. Core Web Vitals : Les Signaux de Performance
Les Core Web Vitals sont trois métriques de performance que Google utilise comme facteur de classement depuis mai 2021.
Les trois métriques
| Métrique | Mesure | Seuil “bon” | Impact SEO |
|---|---|---|---|
| LCP (Largest Contentful Paint) | Temps avant affichage du contenu principal | < 2.5s | Haut |
| FID (First Input Delay) | Délai avant réactivité aux clics | < 100ms | Moyen |
| CLS (Cumulative Layout Shift) | Décalages visuels non attendus | < 0.1 | Moyen |
Problèmes courants et solutions
LCP lent (> 2.5s) :
- Cause : Images non optimisées, JavaScript bloquant, serveur lent
- Solution : Lazy loading, compression d’images, minification JS, preload des ressources critiques
FID élevé (> 100ms) :
- Cause : JavaScript lourd, tâches longues (> 50ms)
- Solution : Code splitting, dégradation progressive, Web Workers
CLS instable (> 0.1) :
- Cause : Images sans dimensions, publicités, polices qui se chargent tard
- Solution : Définir width/height sur les images, réserver l’espace pour les pubs, font-display: swap
Exemple concret : Un site SaaS avait un LCP de 4.2s. Après analyse, 60% du temps était consommé par un script de chat en tiers. Après lazy loading du chat (chargement au scroll), le LCP est passé à 1.8s. Résultat : +12% de CTR dans les SERPs.
Où vérifier vos Core Web Vitals
- Google Search Console : Rapport “Core Web Vitals” (données réelles des utilisateurs)
- PageSpeed Insights : Données de laboratoire + données réelles
- Web Vitals Chrome Extension : Monitoring en temps réel
3. JavaScript SEO : Quand Google doit Rendre votre Site
Le problème : Contenu généré en JavaScript
Si votre contenu est généré côté client (JavaScript), Google doit rendre votre page pour la voir. Cela ajoute de la complexité et du délai.
Les trois approches :
| Approche | Rendu | Indexabilité | Performance | Cas d’usage |
|---|---|---|---|---|
| SSR (Server-Side Rendering) | Serveur | ✅ Excellente | ✅ Rapide | Contenu critique, SEO prioritaire |
| CSR (Client-Side Rendering) | Navigateur | ⚠️ Complexe | ❌ Lent | Apps internes, contenu secondaire |
| Hydration | Serveur + Navigateur | ✅ Bonne | ✅ Bonne | Frameworks modernes (Next.js, Nuxt) |
Problèmes courants avec le JavaScript
1. Contenu invisible au crawl
❌ Mauvais : <div id="content"></div> (rempli par JS)✅ Bon : <h1>Mon titre</h1> (HTML statique)
2. Liens non crawlables
❌ Mauvais : <div onClick="navigate('/page')">Lien</div>✅ Bon : <a href="/page">Lien</a>
3. Métadonnées manquantes
❌ Mauvais : <title>App</title> (même pour toutes les pages)✅ Bon : <title>Produit X - Détails | Mon Site</title> (unique par page)
Checklist JavaScript SEO
- Votre contenu principal est-il présent dans le HTML statique ?
- Utilisez-vous des
<a>tags pour les liens internes (pas deonClick) ? - Chaque page a-t-elle un
<title>et une<meta description>uniques ? - Testez-vous votre site avec Google Mobile-Friendly Test ?
- Avez-vous activé le rendu JavaScript dans Google Search Console ?
4. Indexation Différentielle : Quand Google Indexe Différemment
L’indexation différentielle signifie que Google indexe différentes versions de votre site selon le contexte.
Cas courants
1. Version mobile vs desktop
- Google crawle et indexe d’abord la version mobile
- Si votre mobile est plus pauvre que le desktop, vous perdez du contenu indexé
2. Contenu derrière un paywall
- Google indexe la version gratuite
- Le contenu premium n’est pas indexé (sauf si vous utilisez
<paywall-content>)
3. Contenu chargé au scroll (infinite scroll)
- Google indexe généralement la première page
- Les pages suivantes peuvent ne pas être indexées
Solutions
- Mobile-first indexing : Assurez-vous que votre mobile a le même contenu que le desktop
- Structured data : Utilisez
<script type="application/ld+json">pour les paywalls - Pagination : Préférez la pagination classique (page 1, page 2) à l’infinite scroll pour l’indexation
5. Cas d’Usage : Gros Sites, E-commerce, SaaS
Gros sites (100k+ URLs)
Défis spécifiques :
- Budget crawl limité (Google ne peut pas tout crawler)
- Dupliquage massif (variantes de produits, facettes)
- Problèmes de performance à l’échelle
Solutions :
- Analyse des logs serveur pour identifier le gaspillage de budget
- Blocage agressif des facettes et paramètres inutiles
- Sitemap hiérarchisé et priorisé
- Canonical tags systématiques
Exemple : Un site e-commerce avec 200k SKUs avait 500k URLs indexées (dupliquées). Après consolidation via canonical tags et blocage robots.txt, l’index est passé à 50k URLs pertinentes. Le budget crawl s’est concentré sur les produits réels. Résultat : +40% de trafic organique.
E-commerce
Défis spécifiques :
- Facettes de filtrage (couleur, taille, prix) créent des doublons
- Paramètres d’URL complexes (utm, session, tracking)
- Variantes de produits (tailles, couleurs)
- Pagination des listes de produits
Solutions :
- Utiliser
rel="canonical"pour pointer vers la version “principale” du produit - Bloquer les facettes dans robots.txt
- Implémenter le structured data
ProductetAggregateOffer - Utiliser
<link rel="next/prev">pour la pagination
Checklist e-commerce :
- Avez-vous un canonical tag sur chaque page produit ?
- Les facettes sont-elles bloquées dans robots.txt ?
- Utilisez-vous le structured data
Product? - Vos paramètres UTM sont-ils exclus des URLs canoniques ?
SaaS
Défis spécifiques :
- Contenu généré en JavaScript (dashboards, interfaces)
- Contenu derrière authentification (non crawlable)
- Pages dynamiques basées sur les paramètres utilisateur
- Besoin de performance (les SaaS lents perdent des utilisateurs)
Solutions :
- Utiliser SSR ou hydration pour le contenu public
- Créer une version “démo” ou “preview” publique et crawlable
- Optimiser les Core Web Vitals (critique pour les SaaS)
- Utiliser des sitemaps dynamiques pour les pages publiques
Audit SEO Technique : Méthode Complète
Phase 1 : Analyse des logs serveur (1-2 semaines)
- Télécharger les logs serveur des 3 derniers mois
- Identifier les patterns :
- Quelles URLs sont crawlées le plus ?
- Quels codes HTTP reviennent le plus ?
- Y a-t-il des erreurs 4xx ou 5xx récurrentes ?
- Calculer le budget crawl : Nombre de requêtes Google par jour
- Identifier le gaspillage : URLs crawlées mais non pertinentes
Outils : Screaming Frog, Botify, Oncrawl, Logs Analysis (Google Cloud)
Phase 2 : Crawl technique (1 semaine)
- Crawler votre site avec Screaming Frog ou Botify
- Vérifier :
- Erreurs 4xx/5xx
- Redirects en chaîne
- Canonical tags dupliqués ou manquants
- Métadonnées manquantes (title, meta description)
- Contenu dupliqué
- Liens cassés
- Analyser la structure :
- Profondeur moyenne (idéalement < 3 clics)
- Orphelin pages (non linkées)
- Siloing (organisation thématique)
Outils : Screaming Frog, Botify, Semrush, Ahrefs
Phase 3 : Performance (1 semaine)
- Tester les Core Web Vitals :
- PageSpeed Insights (données réelles + labo)
- Google Search Console (rapport Core Web Vitals)
- WebPageTest (analyse détaillée)
- Identifier les goulots :
- Images non optimisées
- JavaScript bloquant
- CSS non critique
- Serveur lent (TTFB)
- Prioriser les corrections :
- Impact SEO (LCP > FID > CLS)
- Effort de correction
- ROI potentiel
Outils : PageSpeed Insights, WebPageTest, Lighthouse, Chrome DevTools
Phase 4 : Indexation (1 semaine)
- Vérifier l’indexation réelle :
site:votresite.comdans Google- Google Search Console (rapport “Couverture”)
- Comparer avec votre sitemap
- Identifier les pages non indexées :
- Sont-elles bloquées par robots.txt ?
- Ont-elles un canonical vers une autre page ?
- Sont-elles en noindex ?
- Analyser les erreurs d’indexation :
- Pages supprimées (404)
- Redirects (301)
- Erreurs d’exploration
Outils : Google Search Console, Screaming Frog, Botify
Phase 5 : Rapport et priorisation
Créer un rapport avec :
| Problème | Sévérité | Impact estimé | Effort | Priorité |
|---|---|---|---|---|
| LCP > 3s | Haute | -15% CTR | Moyen | 1 |
| 500 URLs dupliquées | Haute | -20% index | Faible | 2 |
| Erreurs 5xx | Critique | Perte crawl | Urgent | 1 |
| Facettes non bloquées | Moyenne | -30% budget | Faible | 3 |
Problèmes Invisibles : Ce que la Plupart des Sites Manquent
1. Crawl inefficace (80% des sites)
Le problème : Google crawle vos pages, mais pas les bonnes.
Symptôme : Vous avez 10k URLs, mais seulement 2k sont indexées. Les logs montrent que Google crawle surtout des pages de filtrage.
Solution : Analyser les logs, bloquer les facettes, optimiser la structure.
2. Canonical tags mal configurés
Le problème : Vous avez 50 variantes d’une même page (couleurs, tailles), et aucune n’a de canonical.
Symptôme : Google indexe toutes les variantes. Elles se cannibalisent mutuellement.
Solution : Ajouter un canonical vers la version “principale” sur chaque variante.
3. JavaScript qui cache le contenu
Le problème : Votre contenu est généré en JavaScript. Google le voit, mais pas les moteurs de recherche secondaires (Bing, Yandex).
Symptôme : Vous rankez sur Google, mais pas sur Bing. Votre contenu n’apparaît pas dans les snippets.
Solution : Utiliser SSR ou hydration. Mettre le contenu critique en HTML statique.
4. Core Web Vitals dégradés
Le problème : Votre site est lent. Google le pénalise.
Symptôme : Votre CTR baisse progressivement. Votre LCP est > 3s.
Solution : Optimiser les images, minifier le JavaScript, améliorer le TTFB.
5. Indexation partielle
Le problème : Vous avez 100k URLs, mais seulement 30k sont indexées. Les 70k autres sont bloquées ou en noindex.
Symptôme : Google Search Console montre “Exclue par noindex” ou “Bloquée par robots.txt”.
Solution : Auditer robots.txt, vérifier les noindex, analyser les redirects.
FAQ
Q : Combien de temps faut-il pour voir les résultats d’un audit SEO technique ?
R : Cela dépend de la complexité. Les corrections simples (canonical tags, robots.txt) donnent des résultats en 2-4 semaines. Les optimisations de performance (Core Web Vitals) prennent 1-3 mois. Les changements d’architecture (SSR, restructuration) prennent 3-6 mois.
Q : Le SEO technique est-il plus important que le contenu ?
R : Non, mais c’est une fondation. Sans SEO technique, votre contenu ne sera jamais vu. Avec un bon SEO technique et un mauvais contenu, vous rankez mais n’avez pas de conversions. L’idéal : SEO technique solide + contenu de qualité.
Q : Faut-il vraiment analyser les logs serveur ?
R : Oui, si vous avez plus de 10k URLs. Les logs serveur sont la seule source de vérité sur ce que Google crawle réellement. Sans eux, vous travaillez à l’aveugle.
Q : Quel est le Core Web Vital le plus important ?
R : Le LCP (Largest Contentful Paint). C’est le temps avant que votre contenu principal s’affiche. Un LCP lent tue votre CTR dans les SERPs.
Q : Dois-je utiliser SSR ou CSR pour mon site ?
R : SSR si le SEO est prioritaire (contenu public, blogs, e-commerce). CSR si c’est une app interne ou un contenu secondaire. Hydration si vous utilisez un framework moderne (Next.js, Nuxt).
Q : Comment savoir si mon site a des problèmes d’indexation ?
R : Comparez le nombre de pages dans votre sitemap avec le nombre de pages indexées dans Google Search Console. Si la différence est > 20%, vous avez un problème d’indexation.
Q : Les facettes e-commerce doivent-elles être indexées ?
R : Non. Les facettes (filtres par couleur, taille, prix) créent du contenu dupliqué. Bloquez-les dans robots.txt et utilisez des canonical tags pour pointer vers la version “principale” du produit.
Q : Quel est le meilleur outil pour l’audit SEO technique ?
R : Cela dépend de votre budget et de la taille de votre site. Pour les petits sites : Screaming Frog (gratuit). Pour les gros sites : Botify ou Oncrawl (analyse des logs). Pour une vue d’ensemble : Semrush ou Ahrefs.
Sources Utiles
- Google Search Central : Guides SEO techniques
- Google Search Console : Rapport Core Web Vitals
- Web.dev : Optimisation des performances
- MDN Web Docs : JavaScript et SEO
- Screaming Frog : Analyse technique gratuite
- Botify : Analyse des logs serveur
Il n’y a pas d'article similaire.