SEO + GEO · SEO técnico

SEO Técnico · Core Web Vitals, crawl, indexación y rendering para que tu contenido rankee

SEO técnico es la base invisible que hace que el contenido rankee: Core Web Vitals en el percentil 75 de Google, crawl budget optimizado, renderizado SSR resuelto, schema @graph validado, hreflang y canonicals coherentes. Sin esa base, ni el mejor contenido ni el mejor link building mueven la aguja.

  • Core Web Vitals en verde (LCP < 2.5s, INP < 200ms, CLS < 0.1) en el percentil 75 real de Google
  • Crawl budget optimizado: URLs crawleables priorizadas, paramétricos y facetas bajo control
  • Tiempo hasta indexación reducido a días, no semanas, en páginas nuevas publicadas
  • 0 errores críticos en Search Console: cobertura, mobile usability y schema en verde

SEO técnico es la disciplina que optimiza la infraestructura web —rendimiento (Core Web Vitals), crawlability, indexabilidad, rendering, arquitectura de URLs, hreflang, canonicals, robots, sitemap y datos estructurados— para que los motores de búsqueda descubran, rendericen, entiendan e indexen cada página correctamente. A diferencia del SEO de contenido o del link building, el SEO técnico no busca escribir mejor ni conseguir enlaces: busca que la máquina pueda leer lo que ya tienes. Es precondición, no sustituto. Un sitio técnicamente sólido es el que rankea en Google y es citado por ChatGPT, Perplexity, Gemini y AI Overviews.

Qué cubre SEO técnico

10 áreas de auditoría que trabajamos en cada proyecto

Stack completo de SEO técnico aplicado a entornos B2B: WordPress, Next.js, Shopify, headless y ecommerce complejo. Orden de ejecución: arriba primero.

  1. 01

    Crawlability

    Acceso de bots a cada URL importante: robots.txt, meta robots, cabeceras HTTP X-Robots-Tag, bloqueos por autenticación o firewall. Un solo Disallow mal puesto desaparece secciones enteras.

  2. 02

    Indexación

    Qué URLs deben (y qué URLs no deben) estar en el índice de Google. Revisión de cobertura en Search Console, canonicals correctas, duplicados, thin content y URLs zombi purgadas.

  3. 03

    Rendering

    Cómo procesa Google (y los LLMs) tu contenido JavaScript: SSR, SSG, ISR o CSR. Verificamos que el HTML renderizado coincida con el HTML que ve el bot, sin hidratación parcial ni contenido crítico post-JS.

  4. 04

    Core Web Vitals

    LCP, INP y CLS medidos en el campo (CrUX), no en laboratorio. Objetivo: percentil 75 en verde en mobile y desktop. Budget explícito de rendimiento por página clave.

  5. 05

    Schema · JSON-LD

    Datos estructurados como grafo @graph enriquecido: Organization, WebPage, Article, Service, FAQPage, BreadcrumbList, Product, Review. Validado con Rich Results y Schema.org validator.

  6. 06

    Hreflang · internacional

    Sitios multi-idioma y multi-país: hreflang bidireccional, x-default, sitemap con anotaciones y coherencia con canonicals. Un error aquí hunde rankings en el mercado principal.

  7. 07

    Canonicals

    Una canonical por URL, absoluta, coherente con hreflang, sitemap y enlaces internos. Sin self-loops, sin cadenas, sin conflicto con parámetros de tracking.

  8. 08

    Robots · sitemap

    robots.txt limpio con acceso explícito para Googlebot, Bingbot, GPTBot, PerplexityBot, Google-Extended y ClaudeBot. Sitemap XML segmentado, con lastmod real y sin URLs 3xx/4xx.

  9. 09

    Arquitectura de URLs

    Estructura de carpetas, slugs en el idioma correcto, parámetros facetados, paginación, redirects 301 sin cadenas ni self-loops. Cada URL con un propósito claro de indexación.

  10. 10

    SSR · CSR · hidratación

    Decisión técnica por plantilla: qué es SSR, qué es SSG, qué es CSR. Medición del HTML pre-JS vs post-JS para que el bot vea el mismo contenido que el usuario.

Core Web Vitals

INP, LCP y CLS: las 3 métricas que Google ranquea

Google usa los Core Web Vitals como señal de ranking real desde 2021. INP sustituyó a FID en marzo de 2024. El umbral good se mide en el percentil 75 de usuarios reales (campo CrUX), no en Lighthouse.

MétricaQué mideGood (p75)Needs improvementPoor
LCP · Largest Contentful PaintTiempo hasta pintar el elemento principal visible (hero, featured image, H1)< 2.5 s2.5 – 4.0 s> 4.0 s
INP · Interaction to Next PaintLatencia de la peor interacción del usuario con la página (clic, tap, teclado)< 200 ms200 – 500 ms> 500 ms
CLS · Cumulative Layout ShiftEstabilidad visual: cuánto se mueven los elementos durante la carga< 0.10.1 – 0.25> 0.25
TTFB · Time to First ByteTiempo del servidor hasta el primer byte (diagnóstica, no ranking directo)< 800 ms800 – 1800 ms> 1800 ms

Palancas que mueven CWV en producción: preload de la LCP image con fetchpriority="high", CSS crítico inline, width/height declarados siempre, diferir JS no crítico, evitar hidratación pesada en el hero, fonts con font-display: swap y preload, y vigilar third-party scripts (analytics, chat, ads) que disparan INP.

Crawl + indexación

Crawl budget, rendering JS, robots.txt y sitemap

En sitios grandes (>10k URLs, ecommerce, medios) el crawl budget es un recurso finito. En sitios pequeños lo importante es rendering correcto y coherencia canonical-sitemap-hreflang.

  1. 01

    Crawl budget y logs

    Análisis de logs del servidor para ver qué URLs crawlea Googlebot, con qué frecuencia y qué respuesta recibe. Detecta traps: facetas infinitas, calendarios, parámetros de tracking, sesiones en URL.

  2. 02

    Rendering JavaScript

    Googlebot procesa JS pero con retraso (two-wave indexing). SSR o SSG resuelve el problema en la primera pasada. CSR puro solo es aceptable en áreas privadas o no-indexables.

  3. 03

    Robots.txt y bots IA

    Acceso explícito para Googlebot, Bingbot y crawlers de IA relevantes: GPTBot, PerplexityBot, Google-Extended, ClaudeBot, OAI-SearchBot. Bloquear por omisión = desaparecer del resultado generativo.

  4. 04

    Sitemap XML segmentado

    Un sitemap por tipo de contenido (posts, pages, products, categorías), índice maestro, lastmod real, sin URLs 3xx/4xx/canonicalizadas, registrado en Search Console y Bing Webmaster Tools.

  5. 05

    Cobertura en Search Console

    Revisión semanal del informe de páginas: indexadas, excluidas, descubiertas no indexadas, rastreadas no indexadas, errores 5xx, redirects en loop. Cada anomalía con ticket técnico.

Arquitectura web

URLs, hreflang y canonicals coherentes entre sí

El triángulo URL + canonical + hreflang debe ser consistente. Un error en uno de los tres vértices rompe los otros dos y arrastra rankings enteros.

  1. 01

    Estructura de URLs

    Jerarquía de carpetas que refleja taxonomía real del negocio. Slugs en el idioma del mercado, sin stop-words (el/la/los/las/un/una), minúsculas, hyphen-separated, sin IDs numéricos ni parámetros de sesión.

  2. 02

    Hreflang bidireccional

    Cada versión de idioma declara todas las demás y a sí misma. x-default para el fallback. Coherente con <link rel="canonical"> y con el sitemap. Validado con herramientas específicas (Merkle, Sistrix).

  3. 03

    Canonicals sin loops

    Una sola canonical absoluta por URL. Sin cadenas, sin self-loops, sin conflicto con hreflang ni con parámetros de tracking UTM/GCLID. Consistente con el enlace interno.

  4. 04

    Redirects 301 gobernados

    Política de 3 niveles: .htaccess solo para infraestructura (HTTPS, dominio), plugin de redirects para migraciones de slugs, functions.php solo para reglas programáticas con razón documentada.

Schema · JSON-LD

Datos estructurados que Google y los LLMs usan como ground truth

El schema JSON-LD no es un extra: es el mapa sintáctico que los motores usan para entender sin ambigüedad. Lo desplegamos como grafo @graph con todas las entidades enlazadas por @id.

  • Organization

    Organization

    Entidad empresa con sameAs a LinkedIn, Crunchbase, GMB, Wikidata. Con aggregateRating si hay reviews verificables.

  • WebPage

    WebPage + speakable

    Tipo correcto por plantilla (WebPage, AboutPage, ContactPage, CollectionPage, ItemPage). SpeakableSpecification apuntando a H1, TL;DR y FAQ.

  • Article

    Article + Author Person

    Para blog y recursos. Con author tipo Person, datePublished, dateModified, wordCount, about a entidades de Wikidata.

  • Service

    Service / Product

    Para páginas de servicio o ficha de producto. Con provider, areaServed, serviceType y offers estructuradas.

  • FAQPage

    FAQPage

    Preguntas frecuentes marcadas como Question + acceptedAnswer. Respuestas de 40-80 palabras citables por LLMs.

  • Breadcrumb

    BreadcrumbList

    Ruta navegacional con itemListElement posicionada 1-N. Refuerza arquitectura y aparece en SERP como breadcrumb visual.

Regla cronuts: el schema se despliega vía ACF (campo schema_jsonld) o equivalente CMS, nunca hardcodeado en el theme. Así cada página puede ajustar su grafo sin tocar código.

Metodología cronuts

5 fases para auditar y resolver la deuda técnica SEO

Secuencia probada sobre cuentas B2B de servicios profesionales, SaaS y ecommerce. Cada fase tiene entregable auditable.

  1. 01

    Auditoría técnica completa

    Crawl con Screaming Frog, análisis de logs, Lighthouse CI, Search Console, CrUX y test de rendering. Entregable: informe priorizado con impacto y esfuerzo por ticket.

  2. 02

    Core Web Vitals y rendimiento

    Intervención en LCP, INP y CLS con budget explícito por plantilla. Preload, critical CSS, diferir JS third-party, optimización de imágenes y fuentes. Medición real en CrUX, no solo Lighthouse.

  3. 03

    Crawl, indexación y rendering

    Limpieza de robots.txt, sitemap segmentado, canonicals coherentes, hreflang validado, redirects 3-tier gobernados y verificación de SSR en plantillas críticas.

  4. 04

    Schema @graph y GEO

    Despliegue JSON-LD enriquecido en plantillas clave: Organization, WebPage, Article, Service, FAQPage, BreadcrumbList y speakable. Validado con Rich Results y Schema.org validator.

  5. 05

    Monitorización continua

    Alertas sobre cobertura en Search Console, CrUX semanal, crawl diff mensual y regresiones de schema. Dashboard con KPIs técnicos que el negocio entiende.

Stack tecnológico

Herramientas con las que auditamos y desplegamos SEO técnico

  • Crawl

    Screaming Frog SEO Spider

    Crawl completo del sitio: cabeceras, status codes, canonicals, hreflang, schema, imágenes, redirects, JS rendering con Chromium headless.

  • Rendimiento

    Lighthouse CI + PageSpeed Insights

    Métricas de rendimiento en laboratorio y campo (CrUX). Integrado en pipeline de deploy para no regresionar Core Web Vitals.

  • Indexación

    Google Search Console

    Cobertura, rendimiento en SERP, Core Web Vitals de campo, errores de schema, sitemap, seguridad, acciones manuales. Fuente primaria de verdad.

  • Schema

    Rich Results Test + Schema.org validator

    Validación de JSON-LD antes de deploy. Detecta errores y warnings que rompen elegibilidad en rich snippets y AI Overviews.

  • Logs

    Log file analyzer

    Análisis de logs del servidor para entender qué URLs crawlea Googlebot, con qué frecuencia y con qué respuesta. Clave en sitios grandes.

  • Monitoring

    Dashboard Notion · Looker

    Entregable mensual con KPIs: CWV p75, cobertura, páginas indexadas/excluidas, schema válido, crawl errors, redirects rotos.

¿Tu sitio cumple Core Web Vitals en Google?

Si la respuesta es «no lo sé», es que no los cumple. Te lo medimos en una auditoría técnica inicial y te entregamos el plan de 90 días para pasar a verde en LCP, INP y CLS, con crawl, indexación y schema coherentes.