Robots.txt para SEO: una poderosa arma oculta

En el complejo mundo del SEO, hau un archivo que juega un papel esencial en el rastreo y en la indexación de tu sitio web: el robots.txt. A menudo subestimado, este archivo actúa como el portero digital de tu plataforma, determinando qué puertas abrir y cuáles mantener cerradas para los motores de búsqueda.

En este artículo, exploraremos en detalle qué es el robots.txt, cómo funciona y por qué es tan importante para tu estrategia de optimización de motores de búsqueda. Acompáñanos en este viaje para desentrañar los misterios detrás de este archivo aparentemente simple pero crítico.

¡Sigue leyendo!

Robots.txt

El archivo robots.txt juega un papel vital en el rastreo y la indexación SEO, indicando a los motores de búsqueda qué URLs pueden visitar y cuáles deben evitar, siendo este principio bastante básico y fundamental, se suele subestimar, ya que realmente no se comprenden su alcance y limitaciones.

¿Qué es Robots.txt?

Robots.txt es un archivo de texto que se coloca en la raíz del sitio web y sirve para guiar a los robots de búsqueda sobre qué páginas pueden o no pueden indexar. Es como un portero que decide qué puertas abrir y cuáles mantener cerradas para los motores de búsqueda.

Cómo funciona Robots.txt

Cuando un robot de búsqueda llega a un sitio, lo primero que hace es buscar el archivo robots.txt. Este archivo le indica qué áreas del sitio puede explorar y cuáles debe evitar. Aunque no es obligatorio seguir estas instrucciones, la mayoría de los robots de búsqueda, incluido Google, suelen respetarlas.

¿Por qué es Importante?

Un error en el archivo robots.txt puede tener consecuencias graves. Podría llevar a que los motores de búsqueda ignoren partes importantes de tu sitio o, peor aún, podrían indexar contenido que preferirías mantener privado.

Privacidad

Es crucial entender que robots.txt no garantiza la privacidad. Los motores de búsqueda «éticos» respetarán las directivas, pero no evitará que terceros malintencionados accedan a la información, aunque esta se encuentre bloqueada mediante el archivo robots.txt

El formato general del Robots.txt

El archivo se puede componer de grupos que contienen reglas o directivas específicas para diferentes «user-agents» o rastreadores. Cada grupo inicia con una línea «User-agent», seguida de directivas «Allow» y «Disallow» que especifican las áreas restringidas y permitidas, respectivamente. Los rastreadores procesan estas reglas de arriba abajo, y las reglas son sensibles a mayúsculas y minúsculas. Además, se pueden incluir comentarios con el carácter «#», y se pueden usar comodines «*» para más flexibilidad.

La estructura básica del archivo es bastante simple:

# Hola Google
User-agent: [nombre-del-robot]
Allow: [URL o patrón de URL permitido]
Disallow: [URL o patrón de URL prohibido]

User-agent: [nombre-del-siguiente-robot]
Allow: [URL o patrón de URL permitido]
Disallow: [URL o patrón de URL prohibido]

Además, puedes especificar la ubicación de tu archivo sitemap.xml para ayudar a los motores de búsqueda a encontrar tus páginas más rápidamente:

Sitemap: [ubicación del sitemap]

Reglas y especificaciones del archivo Robots.txt

Aquí hay un resumen de las reglas y especificaciones más importantes:

Ubicación y validez

  • El archivo robots.txt debe estar en el directorio de nivel superior del sitio y seguir un protocolo compatible (HTTP, HTTPS, FTP).
  • El archivo debe llamarse robots.txt.
  • Solo puede haber un archivo robots.txt por sitio.
  • Los archivos robots.txt deben estar codificados en UTF-8.

Sintaxis y campos

  • Los campos User-agent, Allow, Disallow y Sitemap son los más comunes.
  • Los campos Allow y Disallow son las «reglas» que definen las rutas que pueden o no ser rastreadas.
  • La sintaxis es :<#optional-comment>.

Características específicas

  • La distinción entre mayúsculas y minúsculas es relevante en las rutas y en las URLs, pero no en el valor del campo User-agent.
  • Comodines como * y $ para especificar múltiples rutas o el final de una URL.

Errores y Códigos de Estado HTTP

  • Los códigos de estado 2xx permiten el rastreo.
  • Los códigos de estado 3xx llevan a un máximo de cinco redirecciones antes de ser tratados como 404.
  • Los códigos de estado 4xx, excepto 429, se tratan como si no hubiera un archivo robots.txt válido.
  • Los códigos de estado 5xx hacen que se interrumpa temporalmente el rastreo.

Orden de Prioridad

  • En caso de conflicto entre las reglas, se utiliza la regla menos restrictiva o la más específica.

Googlebot y Robots.txt

Aunque la documentación de Google es útil, no cubre todas las peculiaridades, lo que podría llevarnos a cometer errores, por ejemplo si bloqueas accidentalmente a Googlebot utilizando robots.txt, tu sitio web desaparecerá de los resultados de búsqueda de Google. Para evitar eso, Google ofrece una serie de herramientas que te permiten verificar y validar tu archivo robots.txt. Por ejemplo, Google Search Console tiene una herramienta de «probador de robots.txt» que permite verificar si tu archivo tiene errores o contradicciones.

Indexación de páginas bloqueadas por Robots.txt

Aunque un archivo robots.txt puede impedir que los motores de búsqueda como Google rastreen e indexen contenido específico de un sitio web, hay casos en los que las URLs bloqueadas aún podrían aparecer en los resultados de búsqueda. Esto sucede si hay enlaces a esas URLs en otros sitios web. En tales escenarios, la URL y cualquier información pública asociada, como el texto del enlace, podrían mostrarse en los resultados de búsqueda de Google.

Para asegurarse de que el contenido no se indexe, se pueden tomar medidas adicionales como:

  • Proteger los archivos con contraseña en el servidor.
  • Utilizar etiquetas meta noindex en el HTML de la página.
  • Utilizar encabezados de respuesta HTTP noindex.
  • Eliminar completamente la página del sitio web.

Actualizar Robots.txt

Google actualiza automáticamente la caché del archivo robots.txt de un sitio web cada 24 horas. Si necesitas acelerar este proceso, puedes utilizar la función «Enviar» en el Probador de robots.txt. Para confirmar que Google ha rastreado la versión más reciente del archivo, puedes refrescar la página del navegador en la herramienta y verificar que el código del robots.txt coincida con el que deseas que Google utilice. También puedes consultar la marca de tiempo para saber cuándo Google rastreó por última vez el archivo.

Robots habituales de Google

Aquí tienes la tabla con los rastreadores habituales, sus User-agent y una breve descripción de su función:

Rastreador User-agent Descripción
Googlebot Smartphone Googlebot Rastrea sitios en dispositivos móviles.
Googlebot DesktopGooglebotRastrea sitios en dispositivos de escritorio.
Googlebot Image Googlebot-ImageRastrea imágenes.
Googlebot News Googlebot-NewsRastrea artículos periodísticos.
Googlebot VideoGooglebot-VideoRastrea vídeos.
Google FaviconGooglebot-ImageIgnora robots.txt para iconos de página.
Google StoreBotStorebot-GoogleRastrea páginas de detalles de productos y carritos de compra.
Google-InspectionToolGoogle-InspectionTool Usado en pruebas de herramientas de búsqueda.
GoogleOtherGoogleOtherRastreador genérico para fines diversos.

Preguntas sobre Robots.txt

Las preguntas sobre el archivo robots.txt son comunes y pueden variar, desde conceptos básicos hasta cuestiones técnicas avanzadas. Entender las respuestas a estas preguntas es crucial para cualquiera que busque maximizar la visibilidad de su sitio web.

  1. ¿Necesita mi sitio web un archivo robots.txt?
    No es necesario, pero puede ser útil en ciertos casos.
  2. ¿Qué método debo utilizar para bloquear rastreadores?
    Puede usar robots.txt, etiquetas meta robots, o encabezados HTTP X-Robots-Tag dependiendo de sus necesidades.
  3. ¿Puedo retirar el sitio de otro usuario de los resultados de búsqueda?
    No, solo puedes controlar el contenido de tu propio sitio.
  4. ¿Cómo puedo reducir la frecuencia con la que Google rastrea mi sitio web?
    Puede hacerlo a través de Google Search Console.
  5. Si utilizo el mismo archivo robots.txt para diversos sitios web, ¿puedo usar una URL completa en vez de una ruta relativa?
    No, solo se admiten rutas relativas.
  6. ¿Puedo colocar el archivo robots.txt en un subdirectorio?
    No, debe estar en el directorio raíz del sitio web.
  7. Si quiero bloquear una carpeta privada, ¿puedo impedir que otras personas lean el archivo robots.txt?
    No, robots.txt es público.
  8. ¿Tengo que incluir una regla Allow para permitir el rastreo?
    No es necesario, las URLs están permitidas de forma implícita.
  9. ¿Sustituye la etiqueta meta robots al archivo robots.txt?
    No, ambos tienen propósitos diferentes pero complementarios.
  10. ¿Si bloqueo con el archivo robots.txt una sección de mi sitio que ya aparece en los resultados de búsqueda, dejarán de aparecer estos en Google?
    No, Google seguirá intentando acceder y mostrar esos resultados en el buscador, para eliminar los resultados del buscador se debe de usar la etiqueta meta robots.

Lectura relacionada: Informe de Cobertura de Indexación en Search Console

Conceptos clave que deberías conocer si eres SEO sobre el Robots.txt

Para finalizar aunque puedan parecer simples, hay varios conceptos clave que se deben entender para implementar una estrategia de SEO efectiva mediante el archivo robots.txt

Tipo y Tamaño de Archivo

Aunque ya lo hemos comentado, asegúrate de que tu archivo robots.txt esté en la raiz del sitio y codificado en UTF-8 para evitar problemas de lectura. Ten en cuenta que Google solo puede leer archivos de hasta 500MB.

Ignorar Directivas HTML

Si utilizas Disallow, todas las directivas HTML como canonical, noindex o nofollow se ignorarán, ya que los robots no podrán acceder al HTML de la página.

Redacción de directivas

La precisión en la redacción de las directivas es crucial. Como hemos dicho puedes utilizar comodines como * y $ para formular reglas más flexibles y específicas, utiliza el probador de robots.txt de Google para estar seguro de que las directivas actuan como deseas.

Retirada de URLs

Aunque hay herramientas disponibles en Google Search Console como la Retirada de URLs, estas son soluciones temporales. Un archivo robots.txt bien estructurado es la mejor forma de que estas URLs no aparezcan.

Directivas No Oficiales

Ten en cuenta que Google ignora directivas no oficialmente reconocidas, como Crawl-delay o Noindex.

Códigos de Respuesta del Servidor

Los diferentes códigos de respuesta del servidor, como 200 (OK), 4xx (Error del cliente), 301 (Redirección permanente) y 503 (Servicio no disponible), tienen implicaciones variadas en cómo Google interactuará con tu archivo robots.txt.

No Bloquear JS y CSS

Es recomendable no bloquear archivos JavaScript y CSS, ya que Google los utiliza para entender mejor el contenido de tu página.

Contenidos 400

Si tienes páginas con códigos de respuesta 400, es mejor bloquearlas en el archivo robots.txt para ahorrar tiempo de rastreo y recursos del servidor.

Conclusión

En resumen, el robots.txt es un componente fundamental del SEO que no debe pasarse por alto. Sirve como el guardián de las puertas digitales de tu sitio web, controlando qué contenido se muestra y cuál se mantiene fuera de los motores de búsqueda.

Comprender su estructura, reglas y limitaciones es esencial para evitar errores costosos y maximizar la visibilidad en línea. Recuerda que, aunque el robots.txt puede guiar a los motores de búsqueda, no garantiza la privacidad total, por lo que es crucial complementarlo con otras medidas de seguridad si es necesario.

Al aprovechar al máximo este archivo y seguir las mejores prácticas, estarás un paso más cerca de alcanzar el éxito en el competitivo mundo del SEO.

Paginaciones SEO: mitos y prácticas recomendadas

Las paginaciones juegan un papel fundamental en la navegación de sitios web. Estas secuencias numéricas, a menudo subestimadas y pasadas por alto, son una pieza clave para mejorar la experiencia del usuario y potenciar la visibilidad de nuestras páginas en los resultados de búsqueda.

En este post, nos adentraremos en el mundo de las paginaciones SEO. Descubriremos qué son exactamente las paginaciones, cómo afectan a la indexación y clasificación de nuestro contenido en los motores de búsqueda. Aprenderemos a tratarlas adecuadamente para evitar que se conviertan en obstáculos insalvables para los bots de rastreo, garantizando así que nuestras páginas sean debidamente indexadas y valoradas por los buscadores.

Siempre es complicado elegir la mejor forma de tratar las paginaciones en un proyecto web pero vamos a intentar ofrecer una solución mediante las best practices que propone Google.

¡Allá vamos!

¿Qué son las paginaciones?

Comencemos por entender qué son las paginaciones, las cuales se presentan como un subconjunto de datos que se organizan y cargan en formato de lista de diversas formas, siendo las más comunes:

  • Paginación: los usuarios utilizan links como «siguiente», «anterior», o números para navegar entre las páginas, mostrando nuevos resultados con cada cambio.
  • Cargar más: se emplean botones sobre los cuales se puede hacer clic para ampliar el subconjunto de datos mostrados en los resultados.
  • Scroll infinito: aquí, el usuario puede cargar más contenido simplemente desplazándose al final del listado, sin necesidad de interactuar con enlaces o botones.

Todas estas formas de paginación tienen sus pros y contras en cuanto a la experiencia del usuario, y puedes consultarlas en la documentación oficial de Google sobre paginación.

Recomendaciones de Google sobre paginaciones SEO

Ahora bien, si nos enfocamos en el apartado de SEO, Google recomienda lo siguiente:

Teniendo en cuenta esta información y considerando que Google solo sigue la etiqueta «<a href>», es esencial tener en mente que si optamos por utilizar JavaScript para implementar tipos de paginación como «Cargar más» o «Scroll infinito», es necesario seguir las prácticas recomendadas SEO de Google para JavaScript.

¿Cómo mejorar el rastreo?

Google ofrece algunas recomendaciones para optimizar el rastreo de estos subconjuntos de datos en formato de lista.

En caso de ser productos, una estrategia efectiva es utilizar un feed Datos de Google Merchant Center junto con un sitemap. De esta manera, tendremos la oportunidad de aparecer en las nuevas fichas gratuitas de comerciantes las cuales pueden ser monitoreadas desde Search Console. Esto permitirá que vuestros productos pueden aparecer en los resultados orgánicos del buscador, incluso sin tener campañas publicitarias en marcha en Merchant Center. Si no tenéis cuenta en Merchant Center podéis registraros directamente en Fichas Orgánicas de Google.

Como veis, Google tiene varias formas de llegar hasta todos esos subconjuntos de datos, incluso aunque la paginación sea deficiente. Sin embargo, nuestro objetivo es brindar todas las facilidades posibles a Google y evitar obstáculos para que nos valore de la mejor forma en sus algoritmos de rankeo.

Al seguir estas recomendaciones, mejoraremos significativamente la visibilidad y el posicionamiento de nuestro contenido en los resultados de búsqueda.

¿Cómo tratar la paginación?

Para ello, Google nos ofrece diversos indicios de cuáles son aquellas formas en las que tenemos que tratar la paginación.

  • Intentar enlazar siempre la primera página de la paginación para que Google comprenda cuál es el inicio del subconjunto de datos o la colección. También es conveniente añadir un enlace a la última página para que Google identifique el final.

Por tanto, todas aquellas paginaciones que son «Siguiente» y «Anterior» sin numeración, pueden resultar complicadas para que Google las entienda. Además si no son rastreables, todavía peor, ya que no usan la etiqueta <a href>.

Cabe mencionar que Google dejó de utilizar los atributos «link rel=’next'» y «rel=’prev'» según lo mencionado en un tweet de John Muller.

Siguiendo con otros indicadores importantes para que Google comprenda adecuadamente que se trata de una paginación y no de otra cosa, es aconsejable utilizar un enfoque inteligente, como agregar un parámetro de consulto o una ruta descriptiva en el paginado.

En nuestra opinión, siempre recomendamos emplear el idioma inglés para los elementos de la página. Es decir, si tenemos una URL correspondiente a una paginación, es conveniente añadir «?page=» o «/page/» junto a algún elemento descriptivo que identifique claramente que se trata de una paginación. Por lo tanto, si podemos utilizar términos en inglés, mejor.

Errores o falsos mitos sobre las paginaciones

Es común utilizar la etiqueta «noindex, follow» en las paginaciones, ya que así evitamos que el buscador indexe páginas que podrían considerarse de «baja calidad» debido a la falta de contenido único. Sin embargo, es importante destacar que desde que Google dejó de utilizar los atributos «link rel=’next'» y «rel=’prev'», ya no trata las páginas de paginación como un bloque único. En cambio, las evalúa de forma individual, como se menciona en el siguiente vídeo de Google Webmaster Central:

Si os preocupa que puedan considerarse estas páginas que dejamos indexar de la paginación, según comentan en la documentación oficial:

«Por lo general, recomendamos que asignes un título distinto a las páginas web para poder diferenciarlas. Sin embargo, las páginas de una secuencia paginada no tienen que seguir esta recomendación. Puedes utilizar los mismos títulos y descripciones en todas las páginas de la secuencia. Google intenta reconocer las páginas de una secuencia e indexarlas en consecuencia.»

Otro de los errores que se suele realizar es utilizar la meta canonical hacia la página principal de la paginación cuando explícitamente Google no recomienda su uso para eso:

No uses la primera página de una secuencia paginada como página canónica. En vez de eso, proporciona a cada página su propia URL canónica.

Lo que sí que puedes hacer es utilizar la meta canonical en el caso de que la paginación lleve filtros o utilizar la meta robots «noindex, follow». Pero, recuerda no utilizar NUNCA la meta canonical hacia otra página junto con la meta robots «noindex, follow» ya que le estarías diciendo a Google que no indexe la página hacia la que apunta la canonical.

Recuerda, por otro lado, no bloquear las paginaciones mediante el archivo robots.txt, ya que perderás toda la autoridad de los enlaces internos que estén apuntando hacia esas páginas.

Nuestra recomendación para las paginaciones SEO

Nuestra recomendación es que dejes la paginación indexable y canonicalizada hacia sí misma mediante enlaces rastreables que pueda seguir el bot de Google.

Si tu paginación es muy extensa, intenta aumentar la cantidad de items de la paginación por relevancia para disminuir la cantidad de páginas y que Googlebot no tenga que dar tantos saltos para recorrerlas.

Ahora que ya sabes cómo tener una buena paginación en tu sitio, aprovecha para utilizar también las primeras páginas de esta orientándolas a diferentes palabras claves principales, por ejemplo:

Imaginemos que tenemos un e-commerce de venta de material de música, la primera página de un listado podría ser Auriculares, la segunda Cascos, etc… así podrías rankear por diferentes consultas de búsquedas relacionadas con tu sitio.

Esperamos que con todos estos consejos seas capaz de sacarle todo el partido a las paginaciones de tu sitio. Y, si tienes cualquier duda, puedes ponerte en contacto con nuestro equipo de especialistas.

Qué es un buyer persona: cómo crearlo, medirlo y tomar decisiones estratégicas de SEO (+ plantillas)

Cuando comenzamos con una estrategia de SEO lo primero es definir quien será nuestro Buyer Persona para saber quien es nuestro cliente potencial. Pero no podemos quedarnos en eso, debemos de ir más allá creando contenidos mediante un Content Calendar que satisfagan las necesidades de ese Buyer Persona que hemos creado.

Por otro lado, una vez realizado ese esfuerzo es necesario monitorizarlo para ver los resultados e ir ajustándolo para mejorarlo en el tiempo, para ello utilizamos un sistema de tracking como el que nos proporciona la herramienta Sistrix.

En este artículo voy a compartir el paso a paso para trabajar un Buyer Persona para que tengáis alineadas todas las partes de vuestra estrategia SEO. Os voy a mostrar un ejemplo trabajado con un cliente de Alquiler Vacacional para qué veáis como lo realizamos en viva! y sea más fácil para vosotros implementarlo.

Cómo crear un Buyer Persona

Para comenzar a crear un Buyer Persona, si tenéis ya datos con los que trabajar, pues mucho mejor.

Podéis, por ejemplo, preguntar al CEO o CMO de vuestro negocio quien es su cliente potencial y contrastar datos en facturas (sabréis si es hombre/mujer). Otra forma de obtener información es mediante Analytics con los datos demográficos de Edad y Sexo.

En el caso práctico de este artículo se ha identificado el Buyer Persona gracias a Analytics. Nuestro Público Objetivo se llama «Marta» y es una mujer entre 25 y 34 años.

Edad del Buyer Persona en Analytics
Edad del Buyer Persona en Analytics

Sexo del Buyer Persona
Sexo del Buyer Persona en Analytics

Definiendo el Buyer Persona

Una vez hayáis creado vuestro Público Objetivo, continuaréis trabajando para ir definiendo con más detalle a vuestro Buyer Persona mediante diversos apartados que os comparto a continuación:

  • Sobre el Buyer Persona
  • Qué información busca
  • Cuál es su proceso de decisión
  • Cómo realizar las campañas
Descripción de una Buyer Persona
Descripción de una Buyer Persona
Descripción de la información que busca una Buyer Persona
Descripción de la información que busca una Buyer Persona
Proceso de toma de decisión de una Buyer Persona
Proceso de toma de decisión de una Buyer Persona
Ejemplo de cómo realizar campañas dentro del Funnel teniendo en cuenta el Buyer Persona
Ejemplo de cómo realizar campañas dentro del Funnel teniendo en cuenta el Buyer Persona

Podéis descargaros la plantilla utilizada aquí abajo, si os surge cualquier duda contactad con nosotros

Content Calendar de un Buyer Persona

Una vez tengáis definido a vuestro Buyer Persona, tenéis que calendarizar vuestras diferentes campañas y etapas del Funnel de compra en la que se encuentra mediante un Content Calendar introduciendo diversos datos con los que trabajaremos.

Content Calendar del Buyer Persona
Content Calendar del Buyer Persona

Podéis descargaros la plantilla utilizada aquí abajo, si os surge cualquier duda contactad con nosotros

Visibilidad del Buyer Persona

Una vez tengáis definido vuestro Buyer Persona y calendarizado los contenidos mediante el Content Calendar comienza lo interesante… vais a trackear a vuestro Buyer Persona mediante Sistrix.

¿Pero cómo vais a hacer esto?

En este paso utilizaréis Sistrix, una de las herramientas más potentes de gestión de SEO. Os resultará muy útil para este ejercicio y para hacer buen análisis de oportunidad y competidores.

Lo primero que vas a hacer al entrar a Sistrix es crear un proyecto nuevo y tener vuestro índice de visibilidad propio en Sistrix.

Te puede interesar el artículo con el paso a paso: Crear un índice de visibilidad personalizado


 Trackear a nuestro Buyer Persona mediante Sistrix.
Trackear a vuestro Buyer Persona mediante Sistrix.

Una vez creado el proyecto crearéis etiquetas para cada una de las campañas, categorías y estados de compra del Buyer Persona asociando estos a las palabras clave que queráis trackear sabiendo así realmente para que campañas, estados de compra y Buyer Persona estáis trabajando mejor pudiendo medir, corregir y optimizar.

Medición del Buyer Persona

En este punto ya vais a poder tomar decisiones basándoos en métricas claras. Es importante que observéis que están ordenadas.

Abajo os muestro una gráfica de ejemplo dónde podéis observar un caso que tuve donde es muy evidente cuándo se empezó a realizar la medición de forma ordenada. Previamente a mi trabajo no se seguía ningún criterio claro y esto hacía difícil tomar acciones consecuentes a los contenidos realizados.

Métricas del Buyer Persona antes y después de ser ordenadas
Métricas del Buyer Persona antes y después de ser ordenadas

Una vez comencéis a hacer la medición de forma ordenada, podéis compararla con la competencia que hayáis estimado oportuna.

Con la visibilidad por etiquetados podéis saber que funciona y que no pudiendo corregir, potenciar o eliminar y sustituir por otras campañas.

Índice de visibilidad con etiquetas en Sistrix
Índice de visibilidad con etiquetas en Sistrix

Podéis trabajar los etiquetados para orientaros a mejorar aquellas keywords que estén dentro del etiquetado que se defina, por ejemplo en este caso práctico, podría orientarme a mejorar el BOF de Marta si quisiera. Lo haría potenciando las palabras clave asociadas a ese estado, ya sea bien mediante linkbuilding interno o creando más contenido asociado a ella.

Cuadro con palabras clave en Sistrix
Cuadro con palabras clave en Sistrix

Lo mismo ocurre con los cambios en el ranking, puedo ir monitorizando al detalle como van ocurriendo dependiendo del filtro que quiera utilizar en cada momento, pudiendo atacar un Buyer Persona, estado o campaña específica.

Cuadro con ranking de palabras clave en Sistrix
Cuadro con ranking de palabras clave en Sistrix

Como veis, las posibilidades que nos ofrece la herramienta de Sistrix son infinitas.

¿Quieres más consejos de SEO y la herramienta Sistrix?

Si le gustó este artículo, también puedes consultar posts de SEO aquí.

Y no olvides seguirnos en YouTube para obtener más consejos útiles para aumentar vuestra visibilidad en las primeras páginas de Google.

Acciones SEO de multiplicación

Determinadas acciones SEO benefician directamente al negocio multiplicando sus resultados mediante una síntesis de los siguientes factores:

  • Acciones de multiplicación que son perdurables en el tiempo y que favorece de forma exponencial al resultado de negocio.
  • El perfilado de personas que nos ayuda a disminuir la entropía y heterogeneidad social.
  • La modificación de la conducta que consigue que las personas realicen la acción deseada.

Pero para ello debemos primero entender la diferenciación entre las acciones de multiplicación y las acciones lineales que son aquellas que hacen fuerza durante un periodo de tiempo definido en un canal específico.

Pero vayamos desgranando por puntos todos los factores para llegar a conseguir el resultado que nos hemos propuesto alcanzar que al fin y al cabo es una mejora en los resultados de negocio.

Acciones lineales

Normalmente solemos centrarnos mucho en crear acciones lineales que son aquellas que pensamos que pueden proporcionarnos un mayor retorno en el corto plazo pero esto no es así, si no que las realizamos por que nos motivan más el realizar acciones nuevas que profundizar en como mejorar las que ya trabajamos.

Nos motiva más el realizar acciones nuevas que profundizar en las que ya trabajamos.

Pensamos que una acción lineal puede hacer que el cliente tome una decisión de compra al proporcionarle un nuevo valor añadido, pero nada más lejos de la realidad si no que lo que estamos haciendo realmente es crear una nueva área que no tenemos trabajada ni testeada.

No quiero decir que estas acciones no sea interesante hacerlas en algún momento pero normalmente son relevantes a largo plazo y no impactan directamente sobre el negocio a corto plazo produciendo justo el efecto contrario al deseado.

Acciones de multiplicación

Por eso debemos parar y reflexionar para saber identificar cuales son nuestros multiplicadores de negocio y trabajar sobre ellos.

Por ejemplo multiplicadores que suelen afectar directamente al negocio son aquellos elementos de la página sobre los que el usuario tiene que hacer interacción.

Multiplicadores de negocio son aquellos elementos sobre los que el usuario tiene que hacer interacción

Tenemos que tener en cuenta además que no podemos dejarnos guiar solo por el diseño en aquellos multiplicadores que hayamos identificado en nuestro negocio, por tanto tenemos que actuar sobre ellos y consolidarlos como la mejor opción antes de expandirnos con nuevas áreas o acciones, pues estos multiplicadores son los que más pueden impactar sobre nuestro negocio y ofrecernos mejores resultados a corto plazo.

Perfilado de personas

Debemos de entender que cada persona tiene unas inquietudes, miedos y objetivos distintos cuando entra en un sitio web y que por tanto no podemos tratarlas a todas por igual, algunos de los principales factores que influencian sobre las personas son la confianza, la disponibilidad, el tiempo, la complejidad, el precio, la validación social, etc…

Perfilado de personas

Una vez que tenemos claro que cada persona tiene unas características especiales y que hemos debido de estudiar con anterioridad a que personas va orientado nuestro sitio debemos de poder cubrir el mayor espectro posible clasificandolos en:

Perfilado de personas para acciones de SEO

El competitivo

El competitivo busca la velocidad, quiere ser el primero en todo y por tanto busca los elementos clave para una toma de decisión rápida como son las valoraciones, elementos de mejor precio y rapidez, por tanto se fijará en:

  • Estrellas de valoraciones
  • Ofertas
  • Resultados inmediatos

El metódico

El metódico busca la mejor opción y le cuesta tomar la decisión, no le importa comparar, utilizar filtros, ordenaciones, listados, no se deja influir tanto por las opiniones de terceros, por tanto se fijará en:

  • Diferenciaciones
  • Valores destacados
  • Puntos fuerte

El espontáneo

El espontáneo se deja guiar por el principio de escasez, por preferir evitar pérdidas que adquirir ganancias y por tanto la recompensa que debe recibir debe de parecer mayor al dolor percibido, por tanto se fijará en:

  • Mejor elección
  • Favoritos
  • Recomendados

El humanista

El humanista se deja influir por las valoraciones de terceros, busca la validación social y la pertenencia al grupo por tanto para él las características técnicas y el precio influyen menos sobre su decisión siendo los elementos más importante las recomendaciones, las opiniones y los símbolos de aprobación, por tanto se fijará en:

  • Valoraciones
  • Opiniones
  • Validación social

Modificando la conducta

La conducta se modifica normalmente mediante estos 3 elementos principales:

  1. La habilidad
    • Lo simple o complicado que es realizar la acción.
  2. La motivación
    • Las ganas que se tiene de realizarla.
  3. El disparador
    • El elemento sobre el que realizar la acción para que se produzca.

Cuando estos 3 elementos se alinean se produce un cambio de conducta que hace que el usuario realice la acción deseada.

Conductas de personas

Si proporcionamos los estímulos necesarios y los elementos están alineados conseguiremos modificar la conducta.

Recapitulando

1º Identificar nuestros multiplicadores principales y actuar sobre ellos para mejorar nuestros resultados.
2º Entender que existen varios perfiles de personas y que cada una de ellas tienen unas inquietudes distintas que tienen que ser cubiertas.
3º Saber que para modificar la conducta se necesita que la habilidad, la motivación y el disparador estén alineados.

CRO y SEO relacionados con el tipo de Buyer persona.

Con todo lo que hemos visto, podremos entonces traducir la estructura de un mapa de contenidos o wireframe y transformarlo en emociónes que sentirán las personas al utilizar el sitio consiguiendo el objetivo marcado.

Forecasting SEO

Para  preparar las previsiones de crecimiento de distintos sitios webs y no hacerlo chupándose el dedo y poniéndolo al viento, lo mejor es crear un sistema de previsión mediante series temporales ( esto es cuando hablamos de una secuencia de valores observados a lo largo del tiempo y, por tanto, ordenados cronológicamente).

Visitas vs tiempo

Los objetivos del análisis de series temporales son diversos, pudiendo destacar la predicción, denominando predicción a la estimación de valores futuros de la variable en función del comportamiento pasado de la serie.

Evidentemente, aunque el valor futuro de una serie temporal no sea predecible con total exactitud, para que tenga interés el estudio el resultado tampoco puede ser completamente aleatorio, existiendo alguna regularidad en cuanto a su comportamiento en el tiempo, lo que hará posible su modelado y por ende, en su caso, la predicción.

Por lo tanto, si podemos encontrar patrones de regularidad en diferentes secciones de una serie temporal, podremos también describirlas mediante modelos basados en distribuciones de probabilidad.

El primer paso obligatorio para analizar una serie temporal es presentar un gráfico de la evolución de la variable a lo largo del tiempo:

El siguiente paso consiste en determinar si la secuencia de valores es completamente aleatoria o si, por el contrario, se puede encontrar algún patrón a lo largo del tiempo, pues sólo en este caso podremos seguir con el análisis.

La metodología tradicional para el estudio de series temporales es bastante sencilla de comprender, y fundamentalmente se basa en descomponer las series en varias partes: tendencia, variación estacional o periódica, y otras fluctuaciones irregulares.

  • Tendencia. Es la dirección general de la variable en el periodo de observación, es decir el cambio a largo plazo de la media de la serie.
  • Estacionalidad. Corresponde a fluctuaciones periódicas de la variable, en periodos relativamente cortos de tiempo.
  • Otras fluctuaciones irregulares. Después de extraer de la serie la tendencia y variaciones cíclicas, nos quedará una serie de valores residuales, que pueden ser o no totalmente aleatorios.

Cuando observemos la gráfica tendremos que extraer una tendencia y ver si existen periodos de estacionalidad que se puedan detectar fácilmente mediante periodos de tiempo mensual en comparación con años pasados.

Ahora bien: para eliminar esas otras fluctuaciones irregulares y detectar la tendencia de la gráfica utilizaremos filtros. Un filtro no es más que una función matemática que aplicada a los valores de la serie produce una nueva serie con unas características determinada.

Para esto utilizaremos un filtro de suavizado exponencial donde los últimos datos del periodo utilizado tienen más peso que los del total del resto del periodo, consiguiendo además así suavizar las fluctuaciones de plazos cortos y resaltar las tendencias o ciclos de plazos largo atenuando las desventajas de otros métodos como promedios móviles simples, en donde los datos para calcular el promedio tienen la misma ponderación.

Presentamos la ecuación de suavizado exponencial

Ft+1 = αYt + (1 – α)Ft (2)

Donde:

Ft+1 = Pronóstico de la serie de tiempo para el periodo de t + 1.

Yt  = Valor real del periodo anterior al año a pronosticar. (que en nuestro caso serán cantidad de visitas del año anterior)

Ft  = Valor real del periodo anteanterior al año a pronosticar. ( que en nuestro caso serán cantidad de visitas de hace 2 años )

α = Constante de suavización (0 ≤ α ≤ 1).

Constante de suavización

La elección de la constante de suavización α es crucial en la estimación de pronósticos futuros. Si la serie de tiempo contiene una variabilidad aleatoria sustancial, se preferirá un valor pequeño como constante de suavización. La razón de esta aseveración es que gran parte del error del pronóstico es provocado por la variabilidad aleatoria, por lo que un valor pequeño de α permite un pronóstico mejor.

Por el contrario, para una serie de tiempo con una variabilidad aleatoria relativamente pequeña, valores más elevados de la constante de suavización tienen la ventaja de ajustar con rapidez los pronósticos cuando ocurren errores de pronóstico y permitiendo, por lo tanto, que el pronóstico reaccione con mayor rapidez a las condiciones cambiantes.

En la práctica, el valor de α está entre 0,1 y 0,9

En nuestro caso cogeremos una constante de suavización alta que será 0,8 ya que nuestra serie de valores respecto a la gráfica presentada no establece una variabilidad aleatoria alta distinguiéndose claramente  tendencias y estacionalidades en la gráfica.

Debemos de utilizar constantes de suavización más pequeñas si nuestros periodos de tiempo son más reducidos ya que la aleatoriedad sustancial será mucho más alta al no poder establecer correlaciones con largos periodos de tiempos anteriores.

Por tanto nuestra ecuación quedaría

  • Ft+1 = αYt + (1 – α)Ft (2)
  • Ft+1 = 0,8 · 899.744 + (1 – 0,8) · 809.615
  • Ft+1 = 881.718

Una vez vayamos ajustando nuestro constante de suavización y valor real dentro de un periodo de tiempo con los resultados que hemos estimados y los que finalmente hemos conseguido podremos llegar a realizar predicciones más acertadas.

Si – por ejemplo – utilizáramos un valor real dentro de un periodo de tiempo más reducido ajustado al medio en que nos movemos como es Internet obtendremos resultados distintos pero que tendrán un mayor nivel de aleatoriedad sustancial.

Ft+1 = Pronóstico de la serie de tiempo para el periodo de t + 1.

Yt  = Valor real del semestre anterior a pronosticar.

Ft  = Valor real del periodo anteanterior al semestre a pronosticar.

α = Constante de suavización (0 ≤ α ≤ 1).

Ft+1 = αYt + (1 – α)Ft (2)

Ft+1 = 0,7 · 402.709  + (1 – 0,7) · 473.409

Ft+1 = 423.918

Variamos así el resultado de la anterior predicción siendo el valor real dentro del periodo de tiempo más reducido pero ajustándose al mismo tiempo con una constante de suavización menor que nos proporciona al mismo tiempo una aleatoriedad sustancial mayor.

Por lo que reduciendo el valor real dentro del periodo tiempo y la constante de suavización obtenemos una desviación  en cantidad de visitas de un 3,8% presuponiendo que ha menor valor real dentro de un periodo de tiempo mayor % de desviación respecto a valores reales dentro de períodos más largos hasta que se consiga una constante de suavización ajustada que no proporcione desviaciones.

Etiquetas para Ecommerce

Las tags o etiquetas (Folcsonomías), son términos simples que hablan de una propiedad o característica de la información tratada, pero no la define ni la agrupa jerárquicamente.

Es información sobre la información o un metadato, con los metadatos podemos crear Ontologías que son esquemas conceptuales relacionados entre uno o varios dominios con la finalidad de facilitar la comunicación o el intercambio de información entre diferentes sistemas y entidades.

¿Qué son las entidades?

Una entidad es aquel elemento que puede ser perceptible por un sistema animado y tratado de forma concreta, abstracta, particular o universal.

Por ejemplo:

Entidad Barcelona -> Ciudad

Entidad Barcelona -> Equipo de fútbol

¿Qué es un nodo?

Un nodo o unidad de información puede tener una o más tags (etiquetas) formando estructuras de datos , relacionadas o no, cada uno de los cuales se refiere a una característica específica del objeto, pero que no lo categoriza y que nos puede llevar a generar teorías de grafos proporcionándonos estructuras de formas matriciales, secuenciales o de conjunto. Por ejemplo:

Objeto -> Manzana

Tags (Etiquetas) -> roja, dulce, sabrosa

En este caso, cada uno de los tags habla sobre una propiedad del objeto Manzana, pero no son categorías a la que éste pertenezca. Se trata de una estructura plana de términos que lo caracterizan, en un esquema de es o tiene.

Como generar estructuras jerárquicas mediante categorías

Las categorías (Taxonomías) son un sistema de asociación de contenido con uno o más temas. Permiten definir y agrupar la información estableciendo relaciones. Las categorías tienen estructuras planas (un nivel) o jerárquicas (múltiples niveles), estos niveles de jerarquía no es conveniente que pasen de más de tres, ya que cuanto mayor es la profundidad del sitio web más complicado es que el robot profundice y los recorra completamente. Los niveles establecidos mediante la categorización establecen una relación de dependencia del tipo pertenece a:

Por ejemplo:

* Recetas

* Postres

* Fruta

# Manzanas -> roja, dulce, sabrosa

# Peras

# Naranjas

# Sandías

Dado que ambos esquemas son diferentes, pero no son opuestos, es posible utilizarlos simultáneamente para obtener una mayor riqueza en la organización de la información.

Los tags ( Etiquetas ), permiten enriquecer al buscador pero se hace necesario la desambiguación que producen por sí mismas al no estar dentro de una estructuración jerárquica, ya que, aunque identifican los términos más relevantes de un contenido, estos por sí mismos no tienen sentido pues hemos visto cómo hablan sobre propiedades.

Las tags ( Etiquetas ) son particularmente importantes para contenido no textual, como fotografías, videos y audio, casos en los que no es fácil para el buscador contextualizar automáticamente debido a que no es capaz de realizar abstracción de conceptos.

Sin embargo una estructura de clasificación es útil, por ejemplo, para establecer un esquema de navegación jerárquico asociado a las expectativas del usuario y la findability del sitio web mejorando así la experiencia de navegación por el mismo y por tanto afectando directamente al revenue en caso de que se trate de un sitio transaccional o al engagement que se pueda producir en sitios por ejemplo informacionales.

Análisis de contenidos

Profundizando más en lo que sería el análisis del contenido, la desambiguación del mismo y la predicción futura de éste, se hace necesario cada vez más de la utilización de entidades incluidas dentro de N-Gramas o Cadenas de Markov que facilitan la consecución de eventos definiendo estados.

Así, anticipándonos a estados definidos mediante estas entidades que refuercen las hipótesis o estructuras definidas que ya están preestablecidas mediantes Corpus o Tesauros, podremos crear estructuras sintácticas que sean, además, semánticamente correctas.

Inteligencia Artificial

Sin duda, todo este tipo de análisis de contenido se puede disgregar en varias vertientes como ocurre con SyntaxNet, un analizador sintáctico de código abierto integrado con TensorFlow que aprende mediante algoritmos de machine learning como Parsey McParseface a analizar la estructura lingüística de la lengua, y que puede explicar el papel funcional de cada palabra en una frase dada pero que si queremos elevarlo a nivel mundial es complicado debido a que no existen bases de datos de conocimiento de todos los idiomas existentes en este momento. 

Como ciencia de la computación, el procesamiento del lenguaje natural es una de las vertientes más importantes dentro de los buscadores, así lo demuestran algunos de los recientes artículos sobre AI donde podemos ver como se tratan y corrigen algunos errores gramaticales mediante los sistemas mencionados anteriormente.

Estos sistemas enriquecen todavía más a los analizadores sintácticos pudiendo establecer mejores relaciones entre los contenidos al poder determinar y ofrecer soluciones a modelos corruptos de datos derivados de grandes volúmenes etiquetados mediante sistemas de Machine Learning.

Índices de contenidos

Teniendo en cuenta que los motores de búsqueda a su vez suelen utilizar índices invertidos como sistemas de recuperación de la información debido a que sus bases de datos no vienen preestablecidas como podría ocurrir en otros sistemas de base de datos, nos encontramos todavía con mayores argumentos para utilizar sistemas de clasificación más atómicos que proporcionen una mejor experiencia tanto para el buscador como para el usuario.

No ya solo utilizando lo que serían las estructuras planas de índices si no también estructuras tridimensionales que agrupan mediante cálculos de vértices aquellas palabras que estén más cercas unas de otras pudiendo establecer relaciones semánticas que mediante el uso de capas de redes neuronales a distintos niveles de profundidad y en diversas etapas del proceso de clasificación de los contenidos obtenidos de un sitio web se hace fundamental para la buena clasificación de estos, pues el buscador intenta ofrecer resultados razonables a la búsqueda realizada de la manera más rápida y confiable posible.

Pero así como no existe un único mejor resultado ya que no existe una única mejor respuestas para todos debido a la subjetividad implícita de las preguntas y sus respuestas, el buscador intentará devolver el resultado menos malo que encuentre.

Por eso cuanto más desambiguada sea la búsqueda y el contenido, más fácil para el buscador devolver la respuesta más acorde, pues recordemos que la abstracción del concepto que a nosotros nos puede producir una palabra no se produce en un buscador.

Como crear las folcsonomías

Pero bajando de nuevo a un nivel más operativo y enfocándonos en los conceptos básicos una vez hemos visto por encima algunas partes del todo, podemos saber cuales son las folcsonomías ( tags o etiquetas) más adecuadas y demandadas agrupando por características los productos que están bajo una categoría.

Esto es tan sencillo como realizar una búsqueda en Google y ver cuales son los términos relacionados más buscados o bien mediante el conocimiento del sector debido a la facturación realizada de productos y buscador interno del ecommerce.

Por poner un ejemplo más gráfico para que se entienda, si fuésemos una ferretería online y quisiéramos etiquetar de la forma más adecuada y alineada con la demanda nuestros productos vemos claramente de un vistazo cuales serían las folcsonomías que tendriamos que tener en cuenta para potenciar nuestra sección de ventiladores en la siguiente imagen:

Pudiendo quedar una estructura alineada con nuestros objetivos y a la vez más enriquecida de la siguiente manera:

* Climatización ( Categoría)

# Ventiladores (Subcategoría ) -> de techo, de pie, silencioso, sin aspas ( Etiquetas )

Este etiquetado selecto proporciona un método donde se satisface de forma directa la necesidad del cliente de un producto en concreto y al mismo tiempo como hemos visto por encima con algunos conceptos básicos de clasificación semántica al buscador.

Informe de cobertura e indexación en Search Console

Consulta cuales son las páginas que Google incluye de tu sitio en su índice y los posibles problemas que se pueden detectar.

Podemos desgranar este informe en 4 grandes estados:

  • Error: la página no está indexada.
    1. Error del servidor (5xx): tu servidor ha devuelto un error 5xx cuando se ha solicitado la página.
    2. Error de redirección: Se ha experimentado algún error de redirección, una cadena de redirección que era demasiado larga, un bucle de redirección, una URL de redirección que superaba la longitud máxima de URL, o bien una URL incorrecta o vacía en la cadena de redirección. 
    3. El archivo robots.txt ha bloqueado la URL enviada: Si bien Google no rastrea ni indexa el contenido que se haya bloqueado con un archivo robots.txt, puede que encuentre e indexe URLs bloqueadas si hay enlaces a ellas en otros sitios de la Web. 
    4. No se ha podido encontrar la URL enviada (404): has enviado una URL que no existe para indexarla.
    5. La URL enviada devuelve un soft 404: has enviado una página para indexarla, pero el servidor ha devuelto lo que parece ser un error soft 404.
    6. La URL enviada devuelve una solicitud no autorizada (401): has enviado una página para indexarla, pero Google ha obtenido una respuesta 401 (no autorizada). 
    7. La URL enviada devuelve el error 403: se necesita tener autorización para acceder a la URL enviada, pero Google no tiene credenciales suficientes.
    8. La URL enviada se ha bloqueado debido a otro problema de tipo 4xx: cuando se ha intentado acceder a la URL enviada, el servidor ha devuelto un código de respuesta 4xx que no está cubierto por ninguno de los problemas anteriores.
  • Advertencia: la página está indexada, pero tiene algún problema que debes tener en cuenta.
    1. Se ha indexado, pero un archivo robots.txt la ha bloqueado: la página se ha incluido en el índice aun estando bloqueada por el archivo robots.txt de tu sitio web. 
    2. La página se ha indexado sin contenido: esta página aparece en el índice de Google, pero Google no ha podido leer su contenido.
  • Excluidas: la página no está indexada, pero Google cree que esa es la intención. Por ejemplo, es posible que hayas excluido intencionadamente con una directiva noindex o que sea un duplicado de una página canónica de tu sitio que ya se ha indexado.
    1. Excluida por una etiqueta «noindex». Al intentar indexar la página, Google ha encontrado una directiva «noindex» y, por lo tanto, no la ha incluido en su índice. 
    2. Bloqueada por una herramienta para eliminar páginas. La página está bloqueada por una solicitud para eliminar la URL.
    3. Bloqueada por robots.txt. Se ha impedido que el robot de Google acceda a la página con un archivo robots.txt.
    4. Bloqueada por una solicitud no autorizada (401). El robot de Google no ha podido acceder a la página debido a una solicitud de autorización 401.
    5. Rastreada: actualmente sin indexar. Google ha rastreado la página, pero no la ha indexado. 
    6. Descubierta: actualmente sin indexar. Google ha encontrado la página, pero todavía no la ha rastreado.
    7. Página alternativa con etiqueta canónica adecuada. La página es un duplicado de otra que Google considera canónica y, además, redirige correctamente a esa página. No tienes que hacer nada.
    8. Duplicada: el usuario no ha indicado ninguna versión canónica. La página tiene duplicados, pero ninguno se ha marcado como canónico. Google cree que esa página no es la canónica.
    9. Duplicada: Google ha elegido una versión canónica diferente a la del usuario. Se ha indicado que esa página es la canónica de un conjunto de páginas, pero Google considera que debería serlo otra URL. Google no ha indexado esa página, sino la que considera canónica.
    10. No se ha encontrado (404). La página ha devuelto un error 404 al solicitarse. Google no ha descubierto esa URL mediante ninguna solicitud explícita ni ningún sitemap.
    11. Página con redirección. La URL es una redirección, por lo que no se ha añadido al índice.
    12. Soft 404. Cuando se solicita la página, se devuelve lo que Google considera que es una respuesta soft 404.
    13. Duplicada: la URL enviada no se ha seleccionado como canónica. La URL forma parte de un conjunto de URL duplicadas en la que no hay ninguna que se haya marcado como canónica. 
    14. Se ha bloqueado debido a que el acceso no está permitido (403). No se le ha dado acceso a Google.
    15. Se ha bloqueado debido a otro problema de tipo 4xx. El servidor ha detectado un error 4xx que no está incluido dentro de los anteriores problemas. 
  • Válidas: la página está indexada.
    1. Enviada e indexada: Se ha enviado la URL para indexar y se ha incluido en el índice.
    2. Indexada, no enviada en sitemap: Google ha descubierto la URL y la ha indexado.

Con todos estos datos y las tipologías de los mismos podemos saber cuales son las acciones necesarias que tenemos que tomar para mejorar el SEO de nuestro sitio.

¿Todavía no miras el informe de cobertura de tu sitio en Search Console? A que está esperando.

10 Extensiones SEO que te harán más productivo

Siguiendo con la metodología Agile vamos a ver cuáles son aquellas extensiones SEO que pueden ayudarnos más en nuestro día a día para analizar nuestro sitio web, hemos seleccionado 10 de ellas que harán que mejore tu productividad.

Extensiones SEO imprescindibles

Estas son, en nuestra opinión, las extensiones que no pueden faltar en cualquier navegador de un SEO:

1. Redirect Path: Comprueba tus cabeceras HTTP   

Si realizas alguna migración o utilizas redirecciones de manera habitual la primera extensión que quería presentarte es Redirect Path una extensión que se suele utilizar principalmente para comprobar los redireccionamientos y los encabezados HTTP. 

Redirect Path

2. Trabaja con datos de varias fuente de Google desde Google Sheets 

Seguimos con Search Analytics for Sheets un complemento que nos permite recuperar datos desde Search Console para trabajarlos mediante Google Sheets. Aunque también tienes disponible Search Console PunkExport que puede exportar hasta 50.000 keywords de Google Search Console con datos de URL, CTR, posición, impresiones, país y dispositivo.

3. Web developer: posibilidades profesionales como si fueras un fronted developer 

Otra extensión para SEO imprescindible debería de ser Web Developer la cual nos ofrece infinidad de configuraciones como poder navegar sin tener el javascript activado, ver el alt de las imágenes y muy muy importante mostrar información de los links de la página.

Web developer

4. Wappalyzer: espia a tu competencia  

Una que me gusta mucho y me sirve para saber qué hace la competencia es Wappalyzer de un solo vistazo puedo ver con qué tecnología está realizado un sitio web, que redes de publicidad emplea, cuales son sus herramientas analíticas y un montón de información que puede serte útil.

5. Revisa rápidamente tu interlinking con esta extensión SEO

Pero si lo que quieres es pegar un vistazo rápido a todos los links de una página y ver si existe alguno roto, no existe mejor extensión que Check My Links de un solo click rastrea todos los links de una web y te marca si son válidos, si están redireccionados, si son inválidos o dan una alerta.

6. Extensión para chequear tu internacionalización rápidamente 

Si tienes un sitio web multiidioma tendrás que implementar las etiquetas hreflang para notificar a Google las versiones localizadas de tu página, con la siguiente extensión que te presentamos serás capaz de poder revisar con un solo click si las etiquetas hreflang las tienes bien implementadas, la extensión es Hreflang Tag Checker.

7. Crea ideas para contenidos rápidamente

Si seguimos con extensiones que nos ayuden en la búsqueda de ideas para contenidos ninguna mejor a mi parecer que Keywords Everywhere ya que nos ofrece no sólo volúmenes de búsqueda sino también búsquedas relacionadas y búsquedas de long tail.

8. Lighthouse: revisa tus métricas para posicionarte mejor 

Google Lighthouse audita y sugiere las mejoras relacionadas con los Core Web Vitals de tu sitio web los cuales van a ser utilizados por Google para el posicionamiento por lo que es interesante que tengas unas buenas métricas.

9. Una extensión llena de shortcuts 

Si lo que quieres es tener una gran variedad de herramientas a tu alcance Tech SEO es como una navaja suiza donde tendrás enlaces hacia una gran cantidad de recursos que te harán la vida más fácil como SEO.

10. Aumenta el rendimiento de tu equipo y, por tanto, tu productividad

Por último, One Tab aunque no se podría llamar una extensión SEO como tal, permite reducir hasta un 95% la memoria utilizada por el navegador al convertir todas las pestañas en una sola, pudiendo así mejorar el rendimiento de nuestro navegador y por tanto hacer mejor nuestro trabajo.

Por qué utilizar extensiones para SEO: ventajas

Sin duda como comentábamos al principio del artículo las Extensiones para SEO son imprescindibles para cualquier profesional que se precie en optimizar su trabajo. Esto es  debido a que el ahorro de tiempo que se produce al tener una multitud de herramientas a la distancia de un solo click junto con su sencillez de uso hacen de ellas un complemento ideal para cualquier SEO. 

Otras Extensiones SEO que te pueden interesar son aquellas que tienen una visión más de Suite como podrían ser:

¿Quieres más consejos de SEO?

Si le gustó este artículo, también puedes consultar posts de SEO aquí.

Y no olvides seguirnos en YouTube para obtener más consejos útiles para aumentar vuestra visibilidad en las primeras páginas de Google.

Marcadores SEO para hacer tu trabajo más fácil

El tiempo es oro y en SEO no podía ser menos. Por eso, una de las mejores opciones que tenemos para aumentar nuestra productividad en SEO son los marcadores.

Aunque existen muchas herramientas de SEO que pueden brindarnos una gran comprensión de los sitios web y las páginas web, a veces, y sobre todo en el trabajo del día a día, solo necesitas comprobar rápidamente algunas cosas.

En ese sentido, los marcadores SEO (o bookmarklets en inglés) son la alternativa perfecta a:

  • La instalación de un software (que nos supone un tiempo de carga extra y que no siempre nos brindan acceso de forma gratuita a los datos que necesitamos).
  • Las extensiones del navegador, muchas de las cuales se superponen en funcionalidad, (y, además, seguro que ya tienes muchas). 

Te explicamos qué son esos marcadores, cómo implementarlos y, además, te dejamos algunos de los más útiles en nuestro trabajo.

Te puede interesar: Cómo combinar SEO y SEM para mejorar su rendimiento

Qué son los marcadores SEO

Los marcadores son los enlaces que guardamos en la barra de nuestro navegador para acceder más fácil y rápido a ellos.

Sin embargo, con los marcadores SEO no encontraremos enlaces.

Los marcadores SEO son, por tanto, marcadores de navegador que, normalmente, contienen Javascript.

Sirven para completar tareas simples o agregar funcionalidad adicional a una página web. Solo completan una acción cuando haces clic en ellos.

Por ejemplo:

javascript:function highlightLinks(){ var newStyle=document.createElement('style'); newStyle.type='text/css'; newStyle.appendChild(document.createTextNode( ' a{border:none;background-color:#090! important;color:#fff! important;} a[rel~=nofollow]{border:1px dashed #852! important;background-color:#fcc! important;} ' )); document.getElementsByTagName('head')[0].appendChild(newStyle); }; highlightLinks();

El código anterior nos muestra los enlaces NoFollow remarcados en rojo y los DoFollow en verde.

Simple y útil.

Son muy fáciles de modificar, siempre que tenga una cadena de URL similar para el software o las herramientas que utiliza.

Por tanto, en los bookmarklets de SEO, donde se supone que deben ir los enlaces introduciremos pequeños scripts que nos facilitarán nuestro trabajo diario como SEOs.

Cómo añadir un nuevo marcador seo

Por qué deberías usar los marcadores de SEO

Como ya hemos dicho al principio, el tiempo es oro. Y no hay mejor razón para usar algo que el tiempo que nos ahorra a la hora de realizar tareas periódicas y necesarias, ¿no?

Pero, si eso no te convence, aquí te contamos más ventajas:

  • Son compatibles con prácticamente todos los navegadores
  • Funcionan también en navegadores móviles que no admiten extensiones de navegador. 
  • Necesitan muy pocos recursos para funcionar
  • Son muy seguros, ya que no necesitas dar permiso a terceros para ‘leer y cambiar todos sus datos en los sitios web que visita’

Los marcadores SEO son, por tanto, una gran alternativa a las extensiones del navegador, que pueden consumir muchos recursos y ejecutarse en segundo plano, lo que ralentiza tu experiencia de navegación.

Cómo crear un marcador SEO

Para crear los marcadores SEO simplemente deberemos:

  1. Hacer clic con el botón derecho en la barra de marcadores y seleccionar «agregar página» o «agregar nuevo marcador»
  2. Darle un nombre al marcador que nos facilite saber su funcionalidad
  3. Pegar el código en la entrada de la dirección
  4. Clic en Guardar.
  5. ¡Felicidades! Acabas de crear su propio Bookmarklet SEO

Ahora bien, si no sabes cómo hacer que aparezca la barra de marcadores en Chrome solo tienes que pulsar en el icono de 3 puntos de tu navegador Chrome (esquina superior derecha).

Luego seleccionamos Marcadores > Mostrar barra de marcadores.

Cómo mostrar la barra de marcadores

Bien, ahora ya tenemos creada nuestra barra de marcadores.

Cómo organizar los marcadores

Ahora es el momento de crear una carpeta para guardar y tener organizados todos nuestros marcadores.

Para ello, simplemente debes hacer clic con el botón derecho sobre la barra de marcadores > añadir carpeta, le damos un nombre y guardamos.

Crea una carpeta para organizar tus marcadores SEO

¡Listo!

Ya tenemos nuestra barra de marcadores SEO y carpeta para organizar nuestros atajos y que nos ayuden en nuestro trabajo diario.

10 marcadores SEO para facilitar tu trabajo

Hemos seleccionado 10 marcadores SEO que, como hemos comentado antes, te facilitarán tu vida como SEO.

Existen muchísimos más según tus necesidades, e incluso tú mismo puedes crearlos.

Ejemplos de scripts SEO para tus marcadores

Puedes completar una gran cantidad de tareas con un marcador, pero nos centraremos en las que ayudan específicamente con las comprobaciones de SEO

En esta lista se incluyen algunos de los más útiles para el trabajo del día a día, otros que utilizamos con menos frecuencia pero que también son geniales.

1. Enlaces Follow – No Follow

Este marcador nos devuelve los enlaces DoFollow de la página en color verde y los NoFollow en color rojo.

Con este bookmarklet puedes determinar rápidamente el tipo de enlaces que has recibido de una página .

javascript:function highlightLinks(){ var newStyle=document.createElement('style'); newStyle.type='text/css'; newStyle.appendChild(document.createTextNode( ' a{border:none;background-color:#090! important;color:#fff! important;} a[rel~=nofollow]{border:1px dashed #852! important;background-color:#fcc! important;} ' )); document.getElementsByTagName('head')[0].appendChild(newStyle); }; highlightLinks();

2. Rich Snippet Test

Marcador que nos abre la página de pruebas de resultados enriquecidos de Google.

En ella podremos descubrir qué resultados enriquecidos se pueden generar con los datos estructurados que contiene una página.

javascript:window.open('https://search.google.com/test/rich-results?url='+encodeURIComponent(location.hostname + location.pathname + location.search) + '&user_agent=1');

3. XHeaders

Analiza la información oculta en los encabezados de respuesta.

javascript:(function(){function read(url){var r=new XMLHttpRequest();r.open('HEAD',url,false);r.send(null);return r.getAllResponseHeaders();}alert(read(window.location))})(); 

4. Page Speed Insight

Abre directamente la página PageSpeed ​​Insights de Google para comprobar la velocidad de la página para cualquier URL con un solo clic.

javascript:void(window.open(%27https://developers.google.com/speed/pagespeed/insights/?url=%27+window.location.href,%27_blank%27));

5. Cache de Google

Marcador que nos muestra la cache que tiene Google almacenada.

javascript:document.location='https://www.google.es/search?q=cache%3A' + encodeURI(document.location.href);

6. Marcador que resalta los encabezados de la página

Nos marca todos los elementos del encabezado de la página.  

Agrega un cuadro alrededor de cada título, nos indica si es H1, H2, etc. y los codifica por colores para una descripción general rápida e intuitiva.

javascript:void((function()%7Bvar a,b,c,d,e,f%3Bf%3Dnew Array(%27pink%27,%27orange%27,%27yellow%27,%27aquamarine%27,%27lightskyblue%27,%27plum%27)%3Bfor(a%3D1%3Ba<%3D6%3Ba%2B%2B)%7Bb%3Ddocument.getElementsByTagName(%27h%27%2Ba)%3Bfor(c%3D0%3Bc<b.length%3Bc%2B%2B)%7Bd%3Db%5Bc%5D%3Be%3Dd.style%3Be.backgroundColor%3Df%5Ba-1%5D%3Be.border%3D%27solid%27%3Be.padding%3D%272px%27%3Be.color%3D%27black%27%3Bd.innerHTML%3D%27H%27%2Ba%2B%27 - %27%2Bd.innerHTML%3B%7D%7D%7D)())

7. Comprobar etiquetas canónicas

En la página actual, identifica y extrae la URL canónica establecida dentro del código y la muestra junto con la URL actual, para detectar enlaces canónicos e identificar problemas.

javascript: (function () %7B var url %3D document.location%3B var links %3D document.getElementsByTagName(%27link%27)%3B var found %3D %27Not Found%27%3B for (var i %3D 0, l%3B l %3D links%5Bi%5D%3B i%2B%2B) %7B if (l.getAttribute(%27rel%27) %3D%3D %27canonical%27) %7B found %3D %27Canonical Found%5Cn%5CnCanonical Reference:%5Cn%27%2Bl.getAttribute(%27href%27)%2B%27%5Cn%5CnCurrent URL:%5Cn%27%2Bdocument.location%3Bif(l.getAttribute(%27href%27)%3D%3Ddocument.location)%7Bfound%3Dfound%2B%27%5Cn%5CnCanonical tag matches current URL.%27%7Delse%7Bfound%3Dfound%2B%27%5Cn%5CnThe Canonical reference and current URL are different. Canonical fallback in place.%27%7D break%3B %7D %7D alert(found)%3B %7D)()%3B

8. Marcador que nos abre Search Console

Este marcador SEO nos abre el dominio en Search Console con solo un clic.

javascript:void(window.open(%27https://search.google.com/search-console/performance/search-analytics?resource_id=%27+window.location.protocol+%27//%27+window.location.hostname,%27_blank%27));

9. Marcador SEO que nos muestra el Robots.txt

Accede al archivo robots.txt de cualquier sitio web con un solo clic.

javascript:document.location= document.location.protocol + '//' + document.location.host + '/robots.txt';

10. Para ver el DOM

El Document Objet Model es la estructura de objetos que genera el navegador cuando se carga un documento.

Se puede modificar mediante Javascript para cambiar dinámicamente los contenidos y el aspecto de la página y así ver el contenido fácilmente de una página en javascript.

javascript:(function()%7Bconst%20content%20%3D%20document.documentElement.outerHTML.replace(%2F%5B%5Cu00A0-%5Cu9999%3C%3E%5C%26%5D%2Fgim%2C%20function(i)%20%7B%0A%20%20return%20'%26%23'%20%2B%20i.charCodeAt(0)%20%2B%20'%3B'%3B%0A%7D)%3B%0Adocument.documentElement.innerHTML%20%3D%20%60%3Chtml%3E%0A%20%20%3Chead%3E%0A%20%20%20%20%3Clink%20rel%3D%22stylesheet%22%20href%3D%22https%3A%2F%2Fcdnjs.cloudflare.com%2Fajax%2Flibs%2Fprism%2F1.20.0%2Fthemes%2Fprism.css%22%3E%0A%20%20%3C%2Fhead%3E%0A%20%20%3Cbody%3E%0A%20%20%20%20%3Cpre%3E%3Ccode%20class%3D%22lang-html%22%3E%24%7Bcontent%7D%3C%2Fcode%3E%3C%2Fpre%3E%0A%20%20%3C%2Fbody%3E%0A%3C%2Fhtml%3E%60%3B%0A%0A%2F%2F%20beautify%0Aconst%20b1%20%3D%20document.createElement('script')%3B%0Aconst%20b2%20%3D%20document.createElement('script')%3B%0Aconst%20b3%20%3D%20document.createElement('script')%3B%0A%0Ab1.src%20%3D%20'https%3A%2F%2Fcdnjs.cloudflare.com%2Fajax%2Flibs%2Fjs-beautify%2F1.11.0%2Fbeautify.min.js'%3B%0Ab2.src%20%3D%20'https%3A%2F%2Fcdnjs.cloudflare.com%2Fajax%2Flibs%2Fjs-beautify%2F1.11.0%2Fbeautify-css.min.js'%3B%0Ab3.src%20%3D%20'https%3A%2F%2Fcdnjs.cloudflare.com%2Fajax%2Flibs%2Fjs-beautify%2F1.11.0%2Fbeautify-html.min.js'%3B%0A%0Alet%20loaded%20%3D%200%3B%0A%0Afunction%20onBeautifyLoaded()%20%7B%0A%20%20loaded%2B%2B%3B%0A%20%20if(loaded%20%3D%3D%203)%20%7B%0A%20%20%20%20document.querySelector('code').textContent%20%3D%20html_beautify(document.querySelector('code').textContent%2C%20%7B%0A%20%20%20%20%20%20indent_size%3A%202%2C%0A%20%20%20%20%20%20max_preserve_newlines%3A%201%0A%20%20%20%20%7D)%3B%0A%20%20%20%20%2F%2F%20for%20some%20reason%20doesn't%20work%20in%20innerHTML%20%3A%2F%0A%20%20%20%20const%20prism%20%3D%20document.createElement('script')%3B%0A%20%20%20%20prism.src%20%3D%20'https%3A%2F%2Fcdnjs.cloudflare.com%2Fajax%2Flibs%2Fprism%2F1.20.0%2Fprism.min.js'%3B%0A%20%20%20%20document.body.appendChild(prism)%3B%0A%20%20%7D%0A%7D%0A%0Ab1.addEventListener('load'%2C%20onBeautifyLoaded)%3B%0Ab2.addEventListener('load'%2C%20onBeautifyLoaded)%3B%0Ab3.addEventListener('load'%2C%20onBeautifyLoaded)%3B%0A%0Adocument.head.appendChild(b1)%3B%0Adocument.head.appendChild(b2)%3B%0Adocument.head.appendChild(b3)%3B%7D)()%3B

Encuentra más ejemplos de marcadores en la red

¡Puedes encontrar marcadores SEO para un sinfín de tareas!

Esta es una lista reducida de los marcadores que puedes utilizar más frecuentemente.

Sin embargo, existen muchos blogs de referencia donde podrás encontrar otros scripts con los que completar tu selección de herramientas.

Por ejemplo, en Rise at Seven, BikeShop SEO o el blog de SEOCipher, encontrarás muchos otros ejemplos que pueden serte útiles.

Ahora solo tienes que escoger los que más te llamen la atención (o comenzar a crear los tuyos propios) y comenzar a ahorrar tiempo en tus tareas SEO.

¿Ya habías utilizado los marcadores? ¿Cuáles son tus favoritos?

Recuerda que, si necesitas ayuda para crear tus marcadores SEO (o para cualquier otra necesidad que tengas en tu posicionamiento orgánico) puedes ponerte en contacto con nosotros. ¡Te ayudaremos encantados!