SEO + GEO · SEO técnico
SEO Técnico · Core Web Vitals, crawl, indexación y rendering para que tu contenido rankee
SEO técnico es la base invisible que hace que el contenido rankee: Core Web Vitals en el percentil 75 de Google, crawl budget optimizado, renderizado SSR resuelto, schema @graph validado, hreflang y canonicals coherentes. Sin esa base, ni el mejor contenido ni el mejor link building mueven la aguja.
- Core Web Vitals en verde (LCP < 2.5s, INP < 200ms, CLS < 0.1) en el percentil 75 real de Google
- Crawl budget optimizado: URLs crawleables priorizadas, paramétricos y facetas bajo control
- Tiempo hasta indexación reducido a días, no semanas, en páginas nuevas publicadas
- 0 errores críticos en Search Console: cobertura, mobile usability y schema en verde
SEO técnico es la disciplina que optimiza la infraestructura web —rendimiento (Core Web Vitals), crawlability, indexabilidad, rendering, arquitectura de URLs, hreflang, canonicals, robots, sitemap y datos estructurados— para que los motores de búsqueda descubran, rendericen, entiendan e indexen cada página correctamente. A diferencia del SEO de contenido o del link building, el SEO técnico no busca escribir mejor ni conseguir enlaces: busca que la máquina pueda leer lo que ya tienes. Es precondición, no sustituto. Un sitio técnicamente sólido es el que rankea en Google y es citado por ChatGPT, Perplexity, Gemini y AI Overviews.
Qué cubre SEO técnico
10 áreas de auditoría que trabajamos en cada proyecto
Stack completo de SEO técnico aplicado a entornos B2B: WordPress, Next.js, Shopify, headless y ecommerce complejo. Orden de ejecución: arriba primero.
- 01
Crawlability
Acceso de bots a cada URL importante:
robots.txt, meta robots, cabeceras HTTPX-Robots-Tag, bloqueos por autenticación o firewall. Un soloDisallowmal puesto desaparece secciones enteras. - 02
Indexación
Qué URLs deben (y qué URLs no deben) estar en el índice de Google. Revisión de cobertura en Search Console, canonicals correctas, duplicados, thin content y URLs zombi purgadas.
- 03
Rendering
Cómo procesa Google (y los LLMs) tu contenido JavaScript: SSR, SSG, ISR o CSR. Verificamos que el HTML renderizado coincida con el HTML que ve el bot, sin hidratación parcial ni contenido crítico post-JS.
- 04
Core Web Vitals
LCP, INP y CLS medidos en el campo (CrUX), no en laboratorio. Objetivo: percentil 75 en verde en mobile y desktop. Budget explícito de rendimiento por página clave.
- 05
Schema · JSON-LD
Datos estructurados como grafo @graph enriquecido: Organization, WebPage, Article, Service, FAQPage, BreadcrumbList, Product, Review. Validado con Rich Results y Schema.org validator.
- 06
Hreflang · internacional
Sitios multi-idioma y multi-país:
hreflangbidireccional,x-default, sitemap con anotaciones y coherencia con canonicals. Un error aquí hunde rankings en el mercado principal. - 07
Canonicals
Una canonical por URL, absoluta, coherente con
hreflang, sitemap y enlaces internos. Sin self-loops, sin cadenas, sin conflicto con parámetros de tracking. - 08
Robots · sitemap
robots.txtlimpio con acceso explícito para Googlebot, Bingbot, GPTBot, PerplexityBot, Google-Extended y ClaudeBot. Sitemap XML segmentado, con lastmod real y sin URLs 3xx/4xx. - 09
Arquitectura de URLs
Estructura de carpetas, slugs en el idioma correcto, parámetros facetados, paginación, redirects 301 sin cadenas ni self-loops. Cada URL con un propósito claro de indexación.
- 10
SSR · CSR · hidratación
Decisión técnica por plantilla: qué es SSR, qué es SSG, qué es CSR. Medición del HTML pre-JS vs post-JS para que el bot vea el mismo contenido que el usuario.
Core Web Vitals
INP, LCP y CLS: las 3 métricas que Google ranquea
Google usa los Core Web Vitals como señal de ranking real desde 2021. INP sustituyó a FID en marzo de 2024. El umbral good se mide en el percentil 75 de usuarios reales (campo CrUX), no en Lighthouse.
| Métrica | Qué mide | Good (p75) | Needs improvement | Poor |
|---|---|---|---|---|
| LCP · Largest Contentful Paint | Tiempo hasta pintar el elemento principal visible (hero, featured image, H1) | < 2.5 s | 2.5 – 4.0 s | > 4.0 s |
| INP · Interaction to Next Paint | Latencia de la peor interacción del usuario con la página (clic, tap, teclado) | < 200 ms | 200 – 500 ms | > 500 ms |
| CLS · Cumulative Layout Shift | Estabilidad visual: cuánto se mueven los elementos durante la carga | < 0.1 | 0.1 – 0.25 | > 0.25 |
| TTFB · Time to First Byte | Tiempo del servidor hasta el primer byte (diagnóstica, no ranking directo) | < 800 ms | 800 – 1800 ms | > 1800 ms |
Palancas que mueven CWV en producción: preload de la LCP image con fetchpriority="high", CSS crítico inline, width/height declarados siempre, diferir JS no crítico, evitar hidratación pesada en el hero, fonts con font-display: swap y preload, y vigilar third-party scripts (analytics, chat, ads) que disparan INP.
Crawl + indexación
Crawl budget, rendering JS, robots.txt y sitemap
En sitios grandes (>10k URLs, ecommerce, medios) el crawl budget es un recurso finito. En sitios pequeños lo importante es rendering correcto y coherencia canonical-sitemap-hreflang.
- 01
Crawl budget y logs
Análisis de logs del servidor para ver qué URLs crawlea Googlebot, con qué frecuencia y qué respuesta recibe. Detecta traps: facetas infinitas, calendarios, parámetros de tracking, sesiones en URL.
- 02
Rendering JavaScript
Googlebot procesa JS pero con retraso (two-wave indexing). SSR o SSG resuelve el problema en la primera pasada. CSR puro solo es aceptable en áreas privadas o no-indexables.
- 03
Robots.txt y bots IA
Acceso explícito para Googlebot, Bingbot y crawlers de IA relevantes: GPTBot, PerplexityBot, Google-Extended, ClaudeBot, OAI-SearchBot. Bloquear por omisión = desaparecer del resultado generativo.
- 04
Sitemap XML segmentado
Un sitemap por tipo de contenido (posts, pages, products, categorías), índice maestro,
lastmodreal, sin URLs 3xx/4xx/canonicalizadas, registrado en Search Console y Bing Webmaster Tools. - 05
Cobertura en Search Console
Revisión semanal del informe de páginas: indexadas, excluidas, descubiertas no indexadas, rastreadas no indexadas, errores 5xx, redirects en loop. Cada anomalía con ticket técnico.
Arquitectura web
URLs, hreflang y canonicals coherentes entre sí
El triángulo URL + canonical + hreflang debe ser consistente. Un error en uno de los tres vértices rompe los otros dos y arrastra rankings enteros.
- 01
Estructura de URLs
Jerarquía de carpetas que refleja taxonomía real del negocio. Slugs en el idioma del mercado, sin stop-words (el/la/los/las/un/una), minúsculas, hyphen-separated, sin IDs numéricos ni parámetros de sesión.
- 02
Hreflang bidireccional
Cada versión de idioma declara todas las demás y a sí misma.
x-defaultpara el fallback. Coherente con<link rel="canonical">y con el sitemap. Validado con herramientas específicas (Merkle, Sistrix). - 03
Canonicals sin loops
Una sola canonical absoluta por URL. Sin cadenas, sin self-loops, sin conflicto con
hreflangni con parámetros de tracking UTM/GCLID. Consistente con el enlace interno. - 04
Redirects 301 gobernados
Política de 3 niveles:
.htaccesssolo para infraestructura (HTTPS, dominio), plugin de redirects para migraciones de slugs,functions.phpsolo para reglas programáticas con razón documentada.
Schema · JSON-LD
Datos estructurados que Google y los LLMs usan como ground truth
El schema JSON-LD no es un extra: es el mapa sintáctico que los motores usan para entender sin ambigüedad. Lo desplegamos como grafo @graph con todas las entidades enlazadas por @id.
- Organization
Organization
Entidad empresa con
sameAsa LinkedIn, Crunchbase, GMB, Wikidata. ConaggregateRatingsi hay reviews verificables. - WebPage
WebPage + speakable
Tipo correcto por plantilla (WebPage, AboutPage, ContactPage, CollectionPage, ItemPage).
SpeakableSpecificationapuntando a H1, TL;DR y FAQ. - Article
Article + Author Person
Para blog y recursos. Con
authortipo Person,datePublished,dateModified,wordCount,abouta entidades de Wikidata. - Service
Service / Product
Para páginas de servicio o ficha de producto. Con
provider,areaServed,serviceTypeyoffersestructuradas. - FAQPage
FAQPage
Preguntas frecuentes marcadas como
Question+acceptedAnswer. Respuestas de 40-80 palabras citables por LLMs. - Breadcrumb
BreadcrumbList
Ruta navegacional con
itemListElementposicionada 1-N. Refuerza arquitectura y aparece en SERP como breadcrumb visual.
Regla cronuts: el schema se despliega vía ACF (campo schema_jsonld) o equivalente CMS, nunca hardcodeado en el theme. Así cada página puede ajustar su grafo sin tocar código.
Metodología cronuts
5 fases para auditar y resolver la deuda técnica SEO
Secuencia probada sobre cuentas B2B de servicios profesionales, SaaS y ecommerce. Cada fase tiene entregable auditable.
- 01
Auditoría técnica completa
Crawl con Screaming Frog, análisis de logs, Lighthouse CI, Search Console, CrUX y test de rendering. Entregable: informe priorizado con impacto y esfuerzo por ticket.
- 02
Core Web Vitals y rendimiento
Intervención en LCP, INP y CLS con budget explícito por plantilla. Preload, critical CSS, diferir JS third-party, optimización de imágenes y fuentes. Medición real en CrUX, no solo Lighthouse.
- 03
Crawl, indexación y rendering
Limpieza de
robots.txt, sitemap segmentado, canonicals coherentes, hreflang validado, redirects 3-tier gobernados y verificación de SSR en plantillas críticas. - 04
Schema @graph y GEO
Despliegue JSON-LD enriquecido en plantillas clave: Organization, WebPage, Article, Service, FAQPage, BreadcrumbList y
speakable. Validado con Rich Results y Schema.org validator. - 05
Monitorización continua
Alertas sobre cobertura en Search Console, CrUX semanal, crawl diff mensual y regresiones de schema. Dashboard con KPIs técnicos que el negocio entiende.
Stack tecnológico
Herramientas con las que auditamos y desplegamos SEO técnico
- Crawl
Screaming Frog SEO Spider
Crawl completo del sitio: cabeceras, status codes, canonicals, hreflang, schema, imágenes, redirects, JS rendering con Chromium headless.
- Rendimiento
Lighthouse CI + PageSpeed Insights
Métricas de rendimiento en laboratorio y campo (CrUX). Integrado en pipeline de deploy para no regresionar Core Web Vitals.
- Indexación
Google Search Console
Cobertura, rendimiento en SERP, Core Web Vitals de campo, errores de schema, sitemap, seguridad, acciones manuales. Fuente primaria de verdad.
- Schema
Rich Results Test + Schema.org validator
Validación de JSON-LD antes de deploy. Detecta errores y warnings que rompen elegibilidad en rich snippets y AI Overviews.
- Logs
Log file analyzer
Análisis de logs del servidor para entender qué URLs crawlea Googlebot, con qué frecuencia y con qué respuesta. Clave en sitios grandes.
- Monitoring
Dashboard Notion · Looker
Entregable mensual con KPIs: CWV p75, cobertura, páginas indexadas/excluidas, schema válido, crawl errors, redirects rotos.
¿Tu sitio cumple Core Web Vitals en Google?
Si la respuesta es «no lo sé», es que no los cumple. Te lo medimos en una auditoría técnica inicial y te entregamos el plan de 90 días para pasar a verde en LCP, INP y CLS, con crawl, indexación y schema coherentes.