Posicionamiento SEO en Shopify: aspectos clave a tener en cuenta

Shopify se está convirtiendo en la plataforma de e-commerce más usada a nivel mundial. Su facilidad de uso y flexibilidad lo hacen ideal para crear y gestionar tiendas online de cualquier tipo. Ya sea como su principal fuente de negocio o como complemento a un negocio físico.

Las técnicas de posicionamiento orgánico son aplicables a cualquier plataforma de comercio electrónico. Pero el posicionamiento SEO en Shopify tiene algunas particularidades técnicas que hay que tener en cuenta. En este post, presentamos las cuestiones clave. Y profundizaremos en algunas configuraciones adicionales que aplicamos en la agencia en artículos posteriores.

Evolución de Shopify frente al resto de CMS

Si comparamos la tendencia de búsqueda de los principales CMS de comercio electrónico que nos llegan a la agencia (WooCommerce, Magento, PrestaShop y Shopify), desde 2007 hasta la actualidad:

  • Podemos ver cómo ha ido creciendo el interés por Shopify desde finales del año 2012, tanto a nivel mundial como en España. Seis años después de la fundación de la compañía, que se remonta al año 2006.
  • A mediados de 2012, Shopify desbancó al resto de CMS a nivel mundial.
  • En España tardó unos años más en ganar en popularidad, superando al resto de CMS a finales del año 2021. Coincidiendo este año con una implementación técnica importante desde el punto de vista SEO: la posibilidad de editar el archivo robots.txt.
tendencia de búsqueda de CMS en el mundo
Tendencia de búsqueda de los principales CMS a nivel mundial
Tendencia de búsqueda de los principales CMS en España

Te puede interesar: Shopify vs Prestahop: ¿Cuál es la mejor opción para un e-commerce?

Aspectos clave del SEO en Shopify

Trabajar el SEO es fundamental para atraer tráfico cualificado a cualquier ecommerce y reducir la dependencia de los canales de pago.

Si trazamos una estrategia de SEO efectiva conseguimos mayor visibilidad en los motores de búsqueda, atraemos mayor volumen de tráfico a la tienda. Y se traducirá en un incremento de ventas orgánicas.

Shopify ofrece varias funciones integradas para optimizar el SEO, como la edición de títulos y meta descripciones, y la generación automática de sitemaps.

Pero al igual que en el resto de CMS, es esencial comprender las bases del SEO. Como la importancia de una estructura bien definida basada en un análisis de palabras clave enfocado en el negocio. La creación de contenido de calidad. Trabajar el enlazado interno. Y definir una estrategia de link building adecuada.

Los elementos anteriores son fundamentales para ayudar a los motores de búsqueda a entender y clasificar mejor el contenido de una tienda online. A continuación describimos algunas particularidades técnicas que presenta Shopify desde el punto de vista SEO.

Estructura de URLs

Shopify presenta una estructura de URLs que no tenemos posibilidad de modificar. A continuación del dominio y del directorio de idioma/s, en el caso que estemos hablando de proyectos internacionales, incluye un directorio para cada tipología de contenidos:

  • Directorio /pages/: contiene las páginas que podemos personalizar en función de las necesidades.
  • Directorio /collections/: contiene las categorías de productos de la tienda con los productos vinculados a las mismas.
  • Directorio /products/: contiene todas las fichas de productos y sus variantes.
  • Directorio /blogs/: contiene todo el contenido del blog.

Como ventaja podemos señalar que esta estructura de URLs nos permite aplicar una segmentación inicial por tipología de contenidos aplicable a cualquier tienda de Shopify para analizar el rendimiento en estos segmentos de manera aislada.

Edición del archivo robots.txt

Como ya hemos mencionado, la edición del archivo robots.txt es posible en Shopify desde el año 2021.

Esta funcionalidad es crucial para potenciar el posicionamiento orgánico. Ya que nos permite indicar a los robots de los motores de búsqueda como Google, qué contenidos queremos que rastree y cuáles bloqueamos al rastreo.

Cabe recordar que siempre que hagamos cambios en el robots, podemos agilizar la actualización para los rastreadores solicitando un nuevo rastreo en los ajustes de Search Console.

Te puede interesar: Cómo editar el archivo robots.txt en Shopify

Sitemap XML e indexación de URLs

El índice del sitemap está alojado en la ruta /sitemap.xml de la raíz del dominio. Y contiene uno o varios sitemaps segmentados por las tipologías de contenido que comentamos anteriormente:

  • Sitemap de páginas: /sitemap_pages_1.xml
  • Sitemap de categorías: /sitemap_collections_1.xml
  • Sitemap de productos: /sitemap_products_1.xml
  • Sitemap del blog: /sitemap_blogs_1.xml

Si el sitemap de una tipología contiene más de 2.500 URLs se generará un nuevo sitemap para esa tipología, nombrándose como «_2» y números sucesivos.

Esta estructura de sitemap nos permite enviar a Google Search Console, tanto el índice, como el resto de tipologías de manera aislada. Con esto conseguimos mejorar el seguimiento del rastreo e indexación.

Debemos tener en cuenta que conforme va creciendo el e-commerce, aumentan el número de sitemaps que contiene el índice. Además, la ruta del sitemap de productos va seguida de un parámetro que varía conforme se amplía el catálogo de productos. Por lo que hay que revisar las reglas que tenemos aplicadas en el robots.txt para asegurarnos de que todos los sitemaps son rastreables.

ejemplo de índice de sitemaps shopify
Ejemplo de índice de sitemaps xml de Shopify

Por defecto Shopify incluirá en el sitemap todas las tipologías de contenidos que estén activos en el sistema, sean indexables o no. Eso a veces puede resultar erróneo, ya que podemos hacer visibles a los motores de búsqueda URLs que realmente no estén enlazadas, ni optimizadas y que no nos interesa posicionar.

Con la ayuda de un programador, podemos ajustar el sitemap para que solo muestre las URLs que decidamos. O podemos elegir alguna App que cubra esta función en el catálogo de Shopify.

En VIVA! hemos probado varias de estas aplicaciones y actualmente nos decantamos por SEO Manager, con la que podemos indicar fácilmente qué páginas nos interesa indexar (marcando como index o no index) y cuáles incluir en el sitemap o no. Además de cubrir otras funcionalidades interesantes que comentaremos en este artículo.

app seo manager shopify
App de SEO para Shopify: SEO Manager

Integración de migas de pan

Las migas de pan son esenciales para potenciar el posicionamiento orgánico del sitio web. Con una correcta integración trabajamos el enlazado interno, favorecemos el rastreo y, además, ayudamos al usuario a situarse dentro de la jerarquía web.


Para configurarlas de manera correcta, recomendamos esta App del catálogo de Shopify. Especialmente útil para proyectos grandes con jerarquías de categorías, subcategorías y etiquetados personalizados.

Edición de meta etiquetas: meta título y meta descripción

La edición de las meta etiquetas para ajustarlas a las palabras clave objetivo y captar la atención del usuario en las SERP es otro punto clave a optimizar.

Shopify cuenta con un panel intuitivo donde personalizar los meta títulos y meta descripciones de todas las tipologías de URLs de manera masiva.

También tenemos la posibilidad de exportar los metacampos en CVS para editarlas y actualizarlas en bulk.

Además, SEO Manager nos da la posibilidad de automatizar la edición usando un listado de variables predefinidas como el title, el precio o el nombre de la tienda para personalizarlas según nos interese.

edicion de meta etiquetas seo manager shopify
Edición de meta etiquetas automatizada con la APP SEO Manager de Shopify

Gestión de redirecciones 301

La aplicación de redirecciones 301 de manera correcta es una práctica básica para mantener la salud de un sitio web en buen estado. Es muy habitual que se modifiquen, desactiven, o eliminen URLs por diferentes motivos.

Si estas URLs están enlazadas internamente y no aplicamos 301, iremos generando enlaces internos a páginas 404, dificultando el rastreo de la web y desaprovechando el presupuesto de rastreo.

Además, si esas URLs reciben enlaces externos, no nos beneficiamos del potencial que éstos enlaces nos pueden aportar.

Habitualmente, en el resto de CMS o desarrollos propios, contamos con el archivo .htaccess, con el que podemos aplicar redirecciones a nivel de servidor incluso empleando expresiones regulares. Pero en este sentido estamos limitados en Shopify, donde solo podemos aplicar redirecciones URL a URL.

Cuando modificamos una URL en Shopify de cualquier tipo de contenido, tenemos la posibilidad de marcar un selector que añade de manera automática una redirección a la base de datos de redirecciones.

Además, en el panel de gestión, podemos ver el listado completo de redirecciones aplicadas, editarlas, agregar nuevas redirecciones.

También podemos exportar el listado completo, o generar un CSV con origen y destino de las redirecciones e importarlo. Muy útil, por ejemplo, en las migraciones entre CMS, o cuando se generan cambios sustanciales en una tienda online del propio Shopify.

gestión de redirecciones 301 en Shopify
Gestión de redirecciones 301 en Shopify

Datos estructurados de productos

Con el marcado de datos estructurados de producto completo, aumentamos la visibilidad del e-commerce. Ya que los resultados de productos se muestran de manera destacada en las diferentes superficies de Google.

Algunos themes de Shopify vienen con el marcado de schema integrado. Para asegurarnos de la correcta implementación de todos los datos que Google tiene en cuenta para destacar los productos, en VIVA! nos coordinamos con nuestro equipo técnico, o con el equipo de desarrollo del cliente para su revisión y puesta a punto.

La implementación en septiembre de 2023 por parte de Google (aún en fase de testeo) de los nuevos resultados de producto orgánicos en la página general del buscador, supone una oportunidad para cumplir los estándares del código schema y aparecer en estos nuevos resultados más llamativos.

fichas de comerciantes en la búsqueda orgánica de Google
Esquema de las nuevas fichas de comerciantes en la búsqueda orgánica de Google

Conclusión

Shopify es una plataforma e-commerce muy potente que no para de evolucionar y de abrirse camino en el mercado. Cada vez nos llegan más clientes que la usan como fuente principal de su negocio. Y gracias a las posibilidades técnicas que van desarrollando, ya no supone una limitación para la optimización orgánica.

En próximos posts, veremos más características técnicas que presenta y cómo podemos ponerle solución.

Robots.txt para SEO: una poderosa arma oculta

En el complejo mundo del SEO, hau un archivo que juega un papel esencial en el rastreo y en la indexación de tu sitio web: el robots.txt. A menudo subestimado, este archivo actúa como el portero digital de tu plataforma, determinando qué puertas abrir y cuáles mantener cerradas para los motores de búsqueda.

En este artículo, exploraremos en detalle qué es el robots.txt, cómo funciona y por qué es tan importante para tu estrategia de optimización de motores de búsqueda. Acompáñanos en este viaje para desentrañar los misterios detrás de este archivo aparentemente simple pero crítico.

¡Sigue leyendo!

Robots.txt

El archivo robots.txt juega un papel vital en el rastreo y la indexación SEO, indicando a los motores de búsqueda qué URLs pueden visitar y cuáles deben evitar, siendo este principio bastante básico y fundamental, se suele subestimar, ya que realmente no se comprenden su alcance y limitaciones.

¿Qué es Robots.txt?

Robots.txt es un archivo de texto que se coloca en la raíz del sitio web y sirve para guiar a los robots de búsqueda sobre qué páginas pueden o no pueden indexar. Es como un portero que decide qué puertas abrir y cuáles mantener cerradas para los motores de búsqueda.

Cómo funciona Robots.txt

Cuando un robot de búsqueda llega a un sitio, lo primero que hace es buscar el archivo robots.txt. Este archivo le indica qué áreas del sitio puede explorar y cuáles debe evitar. Aunque no es obligatorio seguir estas instrucciones, la mayoría de los robots de búsqueda, incluido Google, suelen respetarlas.

¿Por qué es Importante?

Un error en el archivo robots.txt puede tener consecuencias graves. Podría llevar a que los motores de búsqueda ignoren partes importantes de tu sitio o, peor aún, podrían indexar contenido que preferirías mantener privado.

Privacidad

Es crucial entender que robots.txt no garantiza la privacidad. Los motores de búsqueda «éticos» respetarán las directivas, pero no evitará que terceros malintencionados accedan a la información, aunque esta se encuentre bloqueada mediante el archivo robots.txt

El formato general del Robots.txt

El archivo se puede componer de grupos que contienen reglas o directivas específicas para diferentes «user-agents» o rastreadores. Cada grupo inicia con una línea «User-agent», seguida de directivas «Allow» y «Disallow» que especifican las áreas restringidas y permitidas, respectivamente. Los rastreadores procesan estas reglas de arriba abajo, y las reglas son sensibles a mayúsculas y minúsculas. Además, se pueden incluir comentarios con el carácter «#», y se pueden usar comodines «*» para más flexibilidad.

La estructura básica del archivo es bastante simple:

# Hola Google
User-agent: [nombre-del-robot]
Allow: [URL o patrón de URL permitido]
Disallow: [URL o patrón de URL prohibido]

User-agent: [nombre-del-siguiente-robot]
Allow: [URL o patrón de URL permitido]
Disallow: [URL o patrón de URL prohibido]

Además, puedes especificar la ubicación de tu archivo sitemap.xml para ayudar a los motores de búsqueda a encontrar tus páginas más rápidamente:

Sitemap: [ubicación del sitemap]

Reglas y especificaciones del archivo Robots.txt

Aquí hay un resumen de las reglas y especificaciones más importantes:

Ubicación y validez

  • El archivo robots.txt debe estar en el directorio de nivel superior del sitio y seguir un protocolo compatible (HTTP, HTTPS, FTP).
  • El archivo debe llamarse robots.txt.
  • Solo puede haber un archivo robots.txt por sitio.
  • Los archivos robots.txt deben estar codificados en UTF-8.

Sintaxis y campos

  • Los campos User-agent, Allow, Disallow y Sitemap son los más comunes.
  • Los campos Allow y Disallow son las «reglas» que definen las rutas que pueden o no ser rastreadas.
  • La sintaxis es :<#optional-comment>.

Características específicas

  • La distinción entre mayúsculas y minúsculas es relevante en las rutas y en las URLs, pero no en el valor del campo User-agent.
  • Comodines como * y $ para especificar múltiples rutas o el final de una URL.

Errores y Códigos de Estado HTTP

  • Los códigos de estado 2xx permiten el rastreo.
  • Los códigos de estado 3xx llevan a un máximo de cinco redirecciones antes de ser tratados como 404.
  • Los códigos de estado 4xx, excepto 429, se tratan como si no hubiera un archivo robots.txt válido.
  • Los códigos de estado 5xx hacen que se interrumpa temporalmente el rastreo.

Orden de Prioridad

  • En caso de conflicto entre las reglas, se utiliza la regla menos restrictiva o la más específica.

Googlebot y Robots.txt

Aunque la documentación de Google es útil, no cubre todas las peculiaridades, lo que podría llevarnos a cometer errores, por ejemplo si bloqueas accidentalmente a Googlebot utilizando robots.txt, tu sitio web desaparecerá de los resultados de búsqueda de Google. Para evitar eso, Google ofrece una serie de herramientas que te permiten verificar y validar tu archivo robots.txt. Por ejemplo, Google Search Console tiene una herramienta de «probador de robots.txt» que permite verificar si tu archivo tiene errores o contradicciones.

Indexación de páginas bloqueadas por Robots.txt

Aunque un archivo robots.txt puede impedir que los motores de búsqueda como Google rastreen e indexen contenido específico de un sitio web, hay casos en los que las URLs bloqueadas aún podrían aparecer en los resultados de búsqueda. Esto sucede si hay enlaces a esas URLs en otros sitios web. En tales escenarios, la URL y cualquier información pública asociada, como el texto del enlace, podrían mostrarse en los resultados de búsqueda de Google.

Para asegurarse de que el contenido no se indexe, se pueden tomar medidas adicionales como:

  • Proteger los archivos con contraseña en el servidor.
  • Utilizar etiquetas meta noindex en el HTML de la página.
  • Utilizar encabezados de respuesta HTTP noindex.
  • Eliminar completamente la página del sitio web.

Actualizar Robots.txt

Google actualiza automáticamente la caché del archivo robots.txt de un sitio web cada 24 horas. Si necesitas acelerar este proceso, puedes utilizar la función «Enviar» en el Probador de robots.txt. Para confirmar que Google ha rastreado la versión más reciente del archivo, puedes refrescar la página del navegador en la herramienta y verificar que el código del robots.txt coincida con el que deseas que Google utilice. También puedes consultar la marca de tiempo para saber cuándo Google rastreó por última vez el archivo.

Robots habituales de Google

Aquí tienes la tabla con los rastreadores habituales, sus User-agent y una breve descripción de su función:

Rastreador User-agent Descripción
Googlebot Smartphone Googlebot Rastrea sitios en dispositivos móviles.
Googlebot DesktopGooglebotRastrea sitios en dispositivos de escritorio.
Googlebot Image Googlebot-ImageRastrea imágenes.
Googlebot News Googlebot-NewsRastrea artículos periodísticos.
Googlebot VideoGooglebot-VideoRastrea vídeos.
Google FaviconGooglebot-ImageIgnora robots.txt para iconos de página.
Google StoreBotStorebot-GoogleRastrea páginas de detalles de productos y carritos de compra.
Google-InspectionToolGoogle-InspectionTool Usado en pruebas de herramientas de búsqueda.
GoogleOtherGoogleOtherRastreador genérico para fines diversos.

Preguntas sobre Robots.txt

Las preguntas sobre el archivo robots.txt son comunes y pueden variar, desde conceptos básicos hasta cuestiones técnicas avanzadas. Entender las respuestas a estas preguntas es crucial para cualquiera que busque maximizar la visibilidad de su sitio web.

  1. ¿Necesita mi sitio web un archivo robots.txt?
    No es necesario, pero puede ser útil en ciertos casos.
  2. ¿Qué método debo utilizar para bloquear rastreadores?
    Puede usar robots.txt, etiquetas meta robots, o encabezados HTTP X-Robots-Tag dependiendo de sus necesidades.
  3. ¿Puedo retirar el sitio de otro usuario de los resultados de búsqueda?
    No, solo puedes controlar el contenido de tu propio sitio.
  4. ¿Cómo puedo reducir la frecuencia con la que Google rastrea mi sitio web?
    Puede hacerlo a través de Google Search Console.
  5. Si utilizo el mismo archivo robots.txt para diversos sitios web, ¿puedo usar una URL completa en vez de una ruta relativa?
    No, solo se admiten rutas relativas.
  6. ¿Puedo colocar el archivo robots.txt en un subdirectorio?
    No, debe estar en el directorio raíz del sitio web.
  7. Si quiero bloquear una carpeta privada, ¿puedo impedir que otras personas lean el archivo robots.txt?
    No, robots.txt es público.
  8. ¿Tengo que incluir una regla Allow para permitir el rastreo?
    No es necesario, las URLs están permitidas de forma implícita.
  9. ¿Sustituye la etiqueta meta robots al archivo robots.txt?
    No, ambos tienen propósitos diferentes pero complementarios.
  10. ¿Si bloqueo con el archivo robots.txt una sección de mi sitio que ya aparece en los resultados de búsqueda, dejarán de aparecer estos en Google?
    No, Google seguirá intentando acceder y mostrar esos resultados en el buscador, para eliminar los resultados del buscador se debe de usar la etiqueta meta robots.

Lectura relacionada: Informe de Cobertura de Indexación en Search Console

Conceptos clave que deberías conocer si eres SEO sobre el Robots.txt

Para finalizar aunque puedan parecer simples, hay varios conceptos clave que se deben entender para implementar una estrategia de SEO efectiva mediante el archivo robots.txt

Tipo y Tamaño de Archivo

Aunque ya lo hemos comentado, asegúrate de que tu archivo robots.txt esté en la raiz del sitio y codificado en UTF-8 para evitar problemas de lectura. Ten en cuenta que Google solo puede leer archivos de hasta 500MB.

Ignorar Directivas HTML

Si utilizas Disallow, todas las directivas HTML como canonical, noindex o nofollow se ignorarán, ya que los robots no podrán acceder al HTML de la página.

Redacción de directivas

La precisión en la redacción de las directivas es crucial. Como hemos dicho puedes utilizar comodines como * y $ para formular reglas más flexibles y específicas, utiliza el probador de robots.txt de Google para estar seguro de que las directivas actuan como deseas.

Retirada de URLs

Aunque hay herramientas disponibles en Google Search Console como la Retirada de URLs, estas son soluciones temporales. Un archivo robots.txt bien estructurado es la mejor forma de que estas URLs no aparezcan.

Directivas No Oficiales

Ten en cuenta que Google ignora directivas no oficialmente reconocidas, como Crawl-delay o Noindex.

Códigos de Respuesta del Servidor

Los diferentes códigos de respuesta del servidor, como 200 (OK), 4xx (Error del cliente), 301 (Redirección permanente) y 503 (Servicio no disponible), tienen implicaciones variadas en cómo Google interactuará con tu archivo robots.txt.

No Bloquear JS y CSS

Es recomendable no bloquear archivos JavaScript y CSS, ya que Google los utiliza para entender mejor el contenido de tu página.

Contenidos 400

Si tienes páginas con códigos de respuesta 400, es mejor bloquearlas en el archivo robots.txt para ahorrar tiempo de rastreo y recursos del servidor.

Conclusión

En resumen, el robots.txt es un componente fundamental del SEO que no debe pasarse por alto. Sirve como el guardián de las puertas digitales de tu sitio web, controlando qué contenido se muestra y cuál se mantiene fuera de los motores de búsqueda.

Comprender su estructura, reglas y limitaciones es esencial para evitar errores costosos y maximizar la visibilidad en línea. Recuerda que, aunque el robots.txt puede guiar a los motores de búsqueda, no garantiza la privacidad total, por lo que es crucial complementarlo con otras medidas de seguridad si es necesario.

Al aprovechar al máximo este archivo y seguir las mejores prácticas, estarás un paso más cerca de alcanzar el éxito en el competitivo mundo del SEO.

Cómo gestionar las URLs de fichas de productos descatalogados

 Una mala gestión de las fichas de productos descatalogados en un ecommerce, no solo puede afectar directamente la experiencia del usuario y la tasa de conversión, sino que también puede tener un impacto en el posicionamiento web.

Si retiramos productos de nuestra tienda online, no debemos eliminar las fichas de producto sin analizar primero los datos y verificar si siguen indexados, si tienen tráfico o enlaces externos y si todavía son rastreados por los crawlers. Al analizar los datos, podemos detectar el valor que tienen estas URLs y aprovechar su potencial SEO.

Por ello, a continuación, te explicaré cómo gestionar las URLs de las fichas de productos descatalogados para tomar decisiones acertadas y aprovechar todo su potencial.

Recopilación de datos de fichas de productos descatalogados

Para tomar decisiones, debes verificar si las URLs de las fichas de productos descatalogados siguen indexadas en Google, reciben tráfico, tienen autoridad/backlinks y si los bots de Google aún rastrean esas páginas.

Para recopilar toda esta información, la mejor combinación es:

Screaming Frog + API Google Search Console + API Google Analytics + API Ahrefs + Screaming Frog Log Analyzer.

Con Google Search Console podrás verificar el estado de indexabilidad de las URLs, mientras que Google Analytics te permitirá comprobar si aún reciben tráfico.

Por otro lado, Ahrefs te ayudará a verificar la autoridad/backlinks y, finalmente, con Screaming Frog Log Analyzer podrás revisar si los crawlers todavía rastrean esas URLs. 

Buenas prácticas para gestionar los productos descatalogados

Una vez tengas toda esta información, toca descartar las URLs sin ningún valor SEO y decidir si las que sí que lo tienen se pueden todavía aprovechar.

Crear error «410 Done»

Si una ficha de producto no cumple con los criterios que hemos establecido, es decir, si no tiene autoridad y no recibe tráfico, la podemos marcar con el estado 410 Gone.

De esta forma, le comunicamos a Google que hemos decidido eliminar intencionadamente esa página.

error 410 - fichas de productos descatalogados

Si manejas grandes cantidades de URLs, ten mucho cuidado y no elimines todas estas páginas de golpe, ya que podría afectar negativamente a la salud general del sitio web a ojos de Google. En su lugar, organiza pequeños paquetes de URLs y planifica su envío a través del código de estado 410, considerando su impacto.

Crear páginas 404 personalizadas

Puedes considerar crear páginas 404 personalizadas para aquellas páginas que todavía reciben tráfico e históricamente han tenido conversiones. En ellas, puedes informar al cliente de que ese producto ya no existe y servirle rutas alternativas:

  • Enlace a la lista de productos de la misma categoría
  • Enlace a la categoría de productos de la misma marca y del mismo rango de precios
  • Y otras que consideres que pueden estar relacionadas e interesantes para el cliente.
página 404 personalizada. Ejemplo de fichas de productos descatalogados
Fuente: Neil Patel

También puedes considerar la posibilidad de realizar una redirección 301 para aquellas URLs que tengan tráfico y hayan tenido conversiones, aunque sí que es cierto que no la consideramos una opción óptima. El motivo es porque el cliente se encontrará con un producto que no está buscando, lo que puede generar frustración, una mala experiencia y una alta tasa de rebote.

Redirecciones 301

Cuando una parte de las fichas de producto tienen cierta autoridad y enlaces externo, pero no reciben tráfico, el objetivo será aprovechar el link juice de esas URLs.

Para ello, podemos generar redirecciones 301 de fichas de productos descatalogados a fichas de productos sustitutivos.

Y, ¿Qué debes hacer con las URLs de productos que tienen autoridad y tráfico? En este caso, puedes generar una página 404 personalizada o hacer una redirección 301. Para tomar una decisión puedes centrarte en la variable de sesiones. Por ejemplo: las páginas que tienen menos de 100 visitas mensuales, se redireccionan con un redirect 301 y las que tengan más de 100 visitas mensuales tendrán una página 404 personalizada.

Quizá te interese: Paginaciones SEO, mitos y prácticas recomendadas

Retirar enlaces internos a productos descatalogados

Hagas lo que hagas, es muy importante que retires todos los enlaces internos hacia estas fichas de producto. Tienes que prestar especial atención a las fichas de producto que se siguen rastreando por los bots de Google.

Así, impides cadenas de redirecciones, evitas mala experiencia del usuario y le facilitas el trabajo a los crawlers, mejorando el Crawl Budget.

Conclusión

En definitiva, gestionar URLs adecuadamente de productos descatalogados es esencial para el éxito de un ecommerce, tanto en términos de SEO como en la experiencia del usuario. Para tomar decisiones informadas, el análisis de datos a través de herramientas como Screaming Frog, Google Search Console, Google Analytics o Ahrefs resulta fundamental.

Adoptando un enfoque estratégico y consciente de los datos, se puede optimizar el posicionamiento y brindar una experienci positiva al usuario, manteniendo así la salud y el rendimiento general de tu sitio web.

Paginaciones SEO: mitos y prácticas recomendadas

Las paginaciones juegan un papel fundamental en la navegación de sitios web. Estas secuencias numéricas, a menudo subestimadas y pasadas por alto, son una pieza clave para mejorar la experiencia del usuario y potenciar la visibilidad de nuestras páginas en los resultados de búsqueda.

En este post, nos adentraremos en el mundo de las paginaciones SEO. Descubriremos qué son exactamente las paginaciones, cómo afectan a la indexación y clasificación de nuestro contenido en los motores de búsqueda. Aprenderemos a tratarlas adecuadamente para evitar que se conviertan en obstáculos insalvables para los bots de rastreo, garantizando así que nuestras páginas sean debidamente indexadas y valoradas por los buscadores.

Siempre es complicado elegir la mejor forma de tratar las paginaciones en un proyecto web pero vamos a intentar ofrecer una solución mediante las best practices que propone Google.

¡Allá vamos!

¿Qué son las paginaciones?

Comencemos por entender qué son las paginaciones, las cuales se presentan como un subconjunto de datos que se organizan y cargan en formato de lista de diversas formas, siendo las más comunes:

  • Paginación: los usuarios utilizan links como «siguiente», «anterior», o números para navegar entre las páginas, mostrando nuevos resultados con cada cambio.
  • Cargar más: se emplean botones sobre los cuales se puede hacer clic para ampliar el subconjunto de datos mostrados en los resultados.
  • Scroll infinito: aquí, el usuario puede cargar más contenido simplemente desplazándose al final del listado, sin necesidad de interactuar con enlaces o botones.

Todas estas formas de paginación tienen sus pros y contras en cuanto a la experiencia del usuario, y puedes consultarlas en la documentación oficial de Google sobre paginación.

Recomendaciones de Google sobre paginaciones SEO

Ahora bien, si nos enfocamos en el apartado de SEO, Google recomienda lo siguiente:

Teniendo en cuenta esta información y considerando que Google solo sigue la etiqueta «<a href>», es esencial tener en mente que si optamos por utilizar JavaScript para implementar tipos de paginación como «Cargar más» o «Scroll infinito», es necesario seguir las prácticas recomendadas SEO de Google para JavaScript.

¿Cómo mejorar el rastreo?

Google ofrece algunas recomendaciones para optimizar el rastreo de estos subconjuntos de datos en formato de lista.

En caso de ser productos, una estrategia efectiva es utilizar un feed Datos de Google Merchant Center junto con un sitemap. De esta manera, tendremos la oportunidad de aparecer en las nuevas fichas gratuitas de comerciantes las cuales pueden ser monitoreadas desde Search Console. Esto permitirá que vuestros productos pueden aparecer en los resultados orgánicos del buscador, incluso sin tener campañas publicitarias en marcha en Merchant Center. Si no tenéis cuenta en Merchant Center podéis registraros directamente en Fichas Orgánicas de Google.

Como veis, Google tiene varias formas de llegar hasta todos esos subconjuntos de datos, incluso aunque la paginación sea deficiente. Sin embargo, nuestro objetivo es brindar todas las facilidades posibles a Google y evitar obstáculos para que nos valore de la mejor forma en sus algoritmos de rankeo.

Al seguir estas recomendaciones, mejoraremos significativamente la visibilidad y el posicionamiento de nuestro contenido en los resultados de búsqueda.

¿Cómo tratar la paginación?

Para ello, Google nos ofrece diversos indicios de cuáles son aquellas formas en las que tenemos que tratar la paginación.

  • Intentar enlazar siempre la primera página de la paginación para que Google comprenda cuál es el inicio del subconjunto de datos o la colección. También es conveniente añadir un enlace a la última página para que Google identifique el final.

Por tanto, todas aquellas paginaciones que son «Siguiente» y «Anterior» sin numeración, pueden resultar complicadas para que Google las entienda. Además si no son rastreables, todavía peor, ya que no usan la etiqueta <a href>.

Cabe mencionar que Google dejó de utilizar los atributos «link rel=’next'» y «rel=’prev'» según lo mencionado en un tweet de John Muller.

Siguiendo con otros indicadores importantes para que Google comprenda adecuadamente que se trata de una paginación y no de otra cosa, es aconsejable utilizar un enfoque inteligente, como agregar un parámetro de consulto o una ruta descriptiva en el paginado.

En nuestra opinión, siempre recomendamos emplear el idioma inglés para los elementos de la página. Es decir, si tenemos una URL correspondiente a una paginación, es conveniente añadir «?page=» o «/page/» junto a algún elemento descriptivo que identifique claramente que se trata de una paginación. Por lo tanto, si podemos utilizar términos en inglés, mejor.

Errores o falsos mitos sobre las paginaciones

Es común utilizar la etiqueta «noindex, follow» en las paginaciones, ya que así evitamos que el buscador indexe páginas que podrían considerarse de «baja calidad» debido a la falta de contenido único. Sin embargo, es importante destacar que desde que Google dejó de utilizar los atributos «link rel=’next'» y «rel=’prev'», ya no trata las páginas de paginación como un bloque único. En cambio, las evalúa de forma individual, como se menciona en el siguiente vídeo de Google Webmaster Central:

Si os preocupa que puedan considerarse estas páginas que dejamos indexar de la paginación, según comentan en la documentación oficial:

«Por lo general, recomendamos que asignes un título distinto a las páginas web para poder diferenciarlas. Sin embargo, las páginas de una secuencia paginada no tienen que seguir esta recomendación. Puedes utilizar los mismos títulos y descripciones en todas las páginas de la secuencia. Google intenta reconocer las páginas de una secuencia e indexarlas en consecuencia.»

Otro de los errores que se suele realizar es utilizar la meta canonical hacia la página principal de la paginación cuando explícitamente Google no recomienda su uso para eso:

No uses la primera página de una secuencia paginada como página canónica. En vez de eso, proporciona a cada página su propia URL canónica.

Lo que sí que puedes hacer es utilizar la meta canonical en el caso de que la paginación lleve filtros o utilizar la meta robots «noindex, follow». Pero, recuerda no utilizar NUNCA la meta canonical hacia otra página junto con la meta robots «noindex, follow» ya que le estarías diciendo a Google que no indexe la página hacia la que apunta la canonical.

Recuerda, por otro lado, no bloquear las paginaciones mediante el archivo robots.txt, ya que perderás toda la autoridad de los enlaces internos que estén apuntando hacia esas páginas.

Nuestra recomendación para las paginaciones SEO

Nuestra recomendación es que dejes la paginación indexable y canonicalizada hacia sí misma mediante enlaces rastreables que pueda seguir el bot de Google.

Si tu paginación es muy extensa, intenta aumentar la cantidad de items de la paginación por relevancia para disminuir la cantidad de páginas y que Googlebot no tenga que dar tantos saltos para recorrerlas.

Ahora que ya sabes cómo tener una buena paginación en tu sitio, aprovecha para utilizar también las primeras páginas de esta orientándolas a diferentes palabras claves principales, por ejemplo:

Imaginemos que tenemos un e-commerce de venta de material de música, la primera página de un listado podría ser Auriculares, la segunda Cascos, etc… así podrías rankear por diferentes consultas de búsquedas relacionadas con tu sitio.

Esperamos que con todos estos consejos seas capaz de sacarle todo el partido a las paginaciones de tu sitio. Y, si tienes cualquier duda, puedes ponerte en contacto con nuestro equipo de especialistas.

Link Affinity: ¿Qué es?, Ventajas y cómo la usamos en la agencia

El enlazado externo es uno de los factores de posicionamiento SEO más importantes. Ya que los enlaces externos que recibe una web son un indicativo de la relevancia global que tiene un site. 

Pero la clave no es tener la mayor cantidad posible de backlinks que apunten a un sitio, sino que estos enlaces estén situados en webs con autoridad y relacionados temáticamente con el sitio al que apuntan.

Por lo tanto, para llevar a cabo una buena estrategia de Link Building, es fundamental tener controlado el perfil de enlaces que dirigen al proyecto que estamos trabajando. Y en este punto es donde la herramienta Link Affinity nos aporta mucho valor, ya que nos permite realizar este proceso de manera muy ágil y automatizada.

Vídeo de introducción a la herramienta Link Affinity

¿Qué es Link Affinity?

Link Affinity es una herramienta ideada por el reconocido Consultor SEO, Sico de Andrés, para gestionar las relaciones públicas digitales y la estrategia de Link Building de cualquier sitio web.

La herramienta nos permite centralizar la gestión del enlazado externo de cualquier proyecto web y tiene diferentes tarifas en función del número de proyectos o campañas que necesitemos trabajar.

Con Link Affinity podemos tanto analizar, como monitorizar el perfil de enlaces de los proyectos que estemos trabajando. Así como gestionar la consecución de nuevos enlaces externos en sitios de calidad relacionados semánticamente con el sitio web que estamos trabajando para potenciar su notoriedad.

Pero Link Affinity no es una plataforma de venta de enlaces como otras muchas que hay en el mercado. Esta herramienta tiene un gran potencial, ya que nos permite buscar webs semánticamente afines a cualquier negocio en las que publicar contenidos relacionados y gestionar todo el proceso desde la propia herramienta.

Es la única herramienta del mercado que usa Inteligencia Artificial y Machine Learning para calcular la afinidad semántica existente entre los posibles medios de comunicación con los que podemos cerrar diferentes tipos de acuerdos para incluir contenido (prospects), y las campañas que estamos trabajando.

Para el cálculo de la afinidad (Affinity), Link Affinity rastrea hasta 10.000 URLs de cada web y extrae los meta títulos y meta descripciones. Con estos datos construye una “nube de afinidad” (Affinity Cloud), es decir, clasifica las palabras que contiene un sitio web generando un mapa de palabras y las clasifica según su relevancia en ese sitio.

ejemplo nube afinidad link affinity
Ejemplo de nube de afinidad de Link Affinity

Tanto para analizar el perfil de enlaces, como para conseguir nuevos enlaces para una web, es fundamental tener en cuenta el índice de spam. Y la herramienta cuenta con un potente filtro de spam para clasificar los sitios web en tres categorías de nivel de riesgo (Risk Level): alto índice de spam (High), índice de spam medio (Medium) y bajo índice de spam (Low). 

Cuando tengamos completado el análisis del perfil de enlaces debemos poner el foco en los enlaces con índice de spam alto para ver si nos interesa mantenerlos en el perfil de enlaces o hacerles un disavow. Y a la hora de barajar la posibilidad de cerrar acuerdos con un medio concreto, evitar los enlaces con índice de spam alto y valorar aquellos con un índice de spam medio o alto.

Además, analiza tres factores fundamentales del perfil de enlaces que tiene un sitio web concreto para indicarnos un índice de Naturalidad (Naturalness) que va de 0, el valor más bajo, a 100, el valor máximo

  • Afinidad (Affinity): indica la relación semántica entre los sitios que apuntan a un proyecto y el propio proyecto.
  • Autoridad (Authority): indica la autoridad que tienen los sitios que apuntan a un proyecto concreto.
  • Seguridad (Safety): indica la seguridad que poseen las webs que apuntan a un proyecto concreto.

Los tres factores se clasifican de manera aislada en tres índices: Bajo (Low), Medio (Medium) y Alto (High).

factores indice naturalidad link affinity
Factores del índice naturalidad de Link Affinity
historico indice naturalidad link affinity
Evolución del índice de naturalidad en Link Affinity

El índice de Naturalidad es muy útil para saber en qué estado se encuentra el perfil de enlaces de un proyecto y nos sirve de alerta para indicarnos cuando desautorizar enlaces con alto índice de spam. Pero es importante resaltar que no debemos enviar por sistema todos los enlaces clasificados por la herramienta como Spammy links, ya que todos los perfiles de enlaces contienen spam y no sería natural no contar con ninguno en un perfil de enlaces concretos.

Es muy recomendable hacer el seguimiento del índice de Naturalidad y si notamos que el índice de Safety comienza a disminuir, podemos entrar al detalle para valorar cuáles enviamos a desautorizar. Cabe mencionar que Google tiene una gran base de datos de sitios considerados como spam que ni siquiera tiene en cuenta en los ránkings.

Ventajas del uso de Link Affinity

Entre las ventajas que nos aporta Link Affinity, podemos destacar las siguientes:

  • Podemos centralizar la gestión de todos nuestros clientes en un mismo panel. Esto nos supone una optimización del tiempo que dedicamos a desarrollar la estrategia de enlazado externo y por lo tanto, un gran ahorro económico.
  • El análisis del perfil de enlaces se realiza de manera automatizada, clasificando los enlaces según sus indicadores de spam y afinidad con el proyecto que estamos trabajando.
  • Nos permite monitorizar todo el enlazado externo de un proyecto.
  • Podemos automatizar el cálculo de la Naturalidad mensual o trimestralmente y ver la evolución de los proyectos. También podemos calcularla manualmente en momentos concretos.
  • Una vez configurada la herramienta adaptándola al proyecto que nos interesa potenciar, el proceso de búsqueda de medios con los que cerrar acuerdos es muy automatizado. Los prospects irán pasando por diferentes fases, filtrando los más adecuados para la campaña en cuestión.
  • Nos facilita la generación de reportes de enlaces seleccionado las variables que necesitemos: podemos filtrar por periodos concretos, afinar los detalles del reporte, así como centrarnos en fases concretas del proceso y afinar aún más dentro de cada una de ellas. Estos informes los podemos exportar y compartirlos con los clientes de manera personalizada.
  • Se conecta con las APIs de las reconocidas herramientas SEO: Majestic, ahrefs, Sistrix y SEMrush. Estas conexiones nos proporcionan datos de tráfico orgánico y autoridad entre otras funciones. Aunque no es imprescindible conectarlas hacen que el potencial de la herramienta aumente.
  • Cuenta con un equipo de soporte mediante chat que nos brinda una comunicación fluida y efectiva.
  • Podemos dejar en manos del equipo de FuSEOn Link Affinity la gestión del cierre del acuerdo con los medios en los que nos interese publicar, con la opción FuSEOn Manage.
  • Podemos llegar a acuerdos tratando directamente con los medios con la opción de Self Manage.
  • Se conecta con la API de Email hunter para localizar direcciones de correo electrónico de los responsables de los posibles medios en los que nos interesa publicar contenido por si necesitamos contactar directamente con ellos para cerrar un acuerdo. Aumentando el número de contactos que ya rastrea la propia herramienta.
  • Nos permite generar archivos disavow con los enlaces tóxicos para enviarlos a Google Search Console y controlarlos desde la propia herramienta.

¿Cómo usamos la herramienta en la agencia?

En VIVA! Conversión somos partners certificados y consideramos que Link Affinity es la mejor herramienta del mercado para la gestión de las estrategias de Link Building de nuestros clientes. Ha revolucionado la manera de trabajar la gestión del enlazado externo de cualquier web al centralizar toda la gestión en un mismo panel. Y nos supone un gran avance al optimizar el tiempo que dedicamos a analizar el perfil de enlaces y conseguir nuevos enlaces para los proyectos que trabajamos en el departamento de SEO.

Tenemos contratada una licencia que nos permite incluir todas las campañas de los clientes SEO que gestionamos y trabajarlas sin salir de la misma cuenta de Link Affinity.

Conclusión

Como síntesis, Link Affinity es una herramienta muy potente con la que agilizar el proceso de análisis del enlazado externo, y la búsqueda de nuevas oportunidades para conseguir enlaces de calidad, en webs afines semánticamente al proyecto SEO que queremos trabajar.

Próximamente publicaremos más vídeos y artículos sobre más aspectos de la herramienta: cómo configurarla, los diferentes modos de trabajar, cómo configurar la automatización, cómo afinar la afinidad… ¡síguenos y no te lo pierdas!

Cómo optimizar el crawling web en angular

¿Qué es Angular?

Angular es un framework de desarrollo en JavaScript desarrollado por Google.

Angular nos ofrece la posibilidad de hacer desarrollos de aplicaciones web SPA (Single Page Applications) de forma que la web solo se va a cargar una vez, haciendo que la carga del resto del contenido o navegación se realice vía AJAX.

En este articulo vamos a hablar de la versión de Angular 2 o superior.

¿Por qué usar una web SPA en Angular?

Como hemos comentado, una web SPA o single page application es un desarrollo web en el cual la web solo va a cargar una vez. Es decir, todo el contenido web (html, css y js) se va a ejecutar la primera vez, y conforme vayamos navegando por el sitio web el contenido se ira cargando vía AJAX por lo que el usuario no notará tiempos de carga. De esta forma conseguimos mejorar los tiempos de respuesta del sitio web.

Angular Seo - Single Page App
Angular Seo – Single Page App

Ventajas de las páginas web SPA

  • Carga muy rápida del sitio web.
  • Fácil monitorización en chrome.
  • Al dividir el backend y el frontend es mucho mas sencillo realizar la versión móvil o cambios de diseño al solo tener que tocar un apartado.
  • Se puede almacenar totalmente en caché de forma que puede funcionar incluso sin conexión.

Desventajas de las páginas web SPA

  • Es más difícil hacer que el SEO funcione correctamente ya que el robot de Google solo va a ver la primera carga web.
  • Requiere que los usuarios tengan JavaScript habilitado en el navegador. Si algún usuario deshabilita JavaScript en su navegador, podría no ver una web en SPA.
  • Es menos seguro. Debido a Cross-Site Scripting (XSS), permite a los atacantes inyectar scripts del lado del cliente en la aplicación web.

¿Qué desventajas existen con Angular y SEO?

Uno de los problemas viene de cómo Google procesa el Javascript de un sitio web cuando pasa su robot.

En la primera carga Google indexa solamente el HTML del sitio web y en un segundo paso añade el JS y lo indexa.

Aquí es donde tenemos el problema y es que a nosotros solo nos interesará la segunda carga donde añade el Javascript ya que toda la web está programada en JS por lo que la indexación en Google va a ser mucho más lenta al necesitar una segunda vuelta del robot (de 2 a 4 semanas).

Otro problema que nos vamos a encontrar es que al realizar todas las llamadas al servidor desde una API vía AJAX Google solo va a ver la primera carga de la página.

Para los usuarios, la página funciona como cualquier otra. Pueden navegar por el sitio fácilmente y sin problemas. Google, por otro lado, no va a ver lo mismo que el usuario por lo que genera problemas al indexar nuestro contenido.

Consejo:  Usar Google Search Console para ver sus páginas web como las ve el robot de Google.

Pero como para todo, existen soluciones.

Cómo optimizar las aplicaciones de Angular para el rastreo de Google

Ahora que sabemos a los problemas que nos enfrentamos, vamos a ver que debemos hacer para realizar una indexación correcta en Angular.

Usar Angular Universe para renderizar la web desde el servidor

Con la librería de Angular Universe vamos a conseguir que sea el servidor y no la parte del cliente el que ofrezca la web. De esta forma el robot de Google verá la información en HTML correctamente indexando el contenido de forma correcta.

Usar la clase @angular/platform-browser para añadir las meta etiquetas

Para añadir en angular las meta etiquetas de forma nativa debemos hacer uso de la clase @angular/platform-browser.

Usar la librería ngx-json-ld para añadir los schema en el desarrollo de Angular

La librería ngx-json-ld va a ayudarnos a colocar de manera sencilla los schema que necesitemos en nuestro proyecto web.

Para tener información más detallada, dejo un articulo de Google que detallan como mejorar el seo en Angular

Aplicando estas soluciones no deberíamos tener mayores problemas para que el SEO de nuestra aplicación en Angular funcione correctamente y Google nos indexe como es debido.

SEO con metodología Agile: pasar de la estrategia a la acción.

Las metodologías ágiles han ayudado a transformar la manera en que se desarrolla los proyectos de SEO.

Agile es un concepto que engloba metodologías de trabajo con enfoque iterativo y desarrollo adaptativo: se parte de una planificación y se van realizando entregas rápidas y continuas, planificando de nuevo cuando es necesario.

Nace en un entorno de IT, ante la necesidad de flexibilizar la operativa en el desarrollo de Software para mejorar la rentabilidad de los proyectos. Pero en este entorno los proyectos tienen un principio y un final, y no suelen existir tareas recurrentes. La aplicación de Agile en SEO requiere adaptación. 

Nosotros utilizamos KANBAN, un framework de trabajo visual, que nos permite llevar a la práctica esta metodología en proyectos de SEO, guiando el trabajo a lo largo de un proceso transparente para todo el equipo.

En este artículo te vamos a explicar como implementamos en VIVA! Conversion los proyectos de SEO con la metodología Agile para posicionar una marca a la cabeza de su mercado, con el propósito de generar tráfico de calidad y oportunidades de negocio. 

Beneficios del SEO

Antes de adentrarnos en la metodología Agile, vamos a abordar todos los beneficios que te puede aportar un proyecto de SEO a tu negocio online.

Aumentar las ventas de tu negocio online

Si estás buscando aumentar las ventas de tu negocio, empresa, tienda online o marca. El objetivo es transaccional, y la estrategia SEO en conseguir aumentar las ventas para obtener el mayor ROI posible. Teniendo en mente que la visión es estratégica para maximizar los beneficios.

Aumentar la visibilidad de la web

Con buenas praxis SEO verás un crecimiento de la tendencia de impresiones y clics. Este incremento en la trayectoria de visibilidad suele conllevar un aumento del tráfico orgánico.

Aumento de visibilidad de la web en Google Search Console.
Aumento de visibilidad de la web en Google Search Console.

Aumentar la calidad del tráfico orgánico.

Los especialistas SEO cualificamos tu tráfico orgánico para que las sesiones sean más valiosas. Es decir, con menos sesiones se incrementarán los leads. Porque llegado a un punto, lo natural no es que el tráfico crezca de manera exponencial, sino dar mayor calidad a cada sesión, garantizando que el usuario encuentra lo que busca y evitando así multitud de sesiones sin calidad.

Mejorar la estrategia: Medir, medir y medir.

Siempre hay que estar analizando datos, tendencias, evolución. Tan familiarizados con Google Analytics y Google Search Console: Sesiones, usuarios, tasa de conversión, conversiones, clics, impresiones, posición media… entre otros, porque de esta manera la estrategia funciona.

Ninguna estrategia SEO es cerrada ni inmutable, lo necesario es que se adapte en el tiempo y según evolucione el proyecto así vamos pivotando. Nos adaptamos a las necesidades de cada proyecto según lo que nos cuentan los datos. Por ello, contar con un perfil analítico muy importante para garantizar el éxito de un proyecto en las SERPs.

Posicionar tu negocio online en Google

Si no apareces en Google no existes. Con el aumento del mundo digital si no estás bien posicionado es como si fueras invisible. No dejes que la competencia se adelante y comienza una estrategia SEO que te ayude a ganar terreno y ventas en tu sector. Cada empresa y negocio tiene un espacio en los resultados de búsqueda y lo ideal es tener este espacio delimitarlo.

Potenciar tu negocio local

Un equipo SEO tiene las herramientas para hacer crecer tu negocio en tu localidad. Nada más relevante que los usuarios de tu ciudad te encuentren cuando buscan en Google.

Ya sabemos qué beneficios te puede aportar una estrategia SEO, pero… ¿Cómo conseguimos esas mejoras en la práctica?

Cómo realizamos los proyectos de SEO Ágil

La metodología de trabajo de nuestros proyectos de SEO Ágil parten de dos fases:

1. En la primera fase, del Setup nos centramos en el análisis del estado de la web.

Se marca un punto de partida desde el cual se analiza la web en retrospectiva para ver cuales son los principales errores e impedimentos para mejorar el sitio así como aquellas prácticas mal realizadas o buenos casos de uso que no se han tenido en cuenta y por tanto se traducen en barreras para el buen funcionamiento del sitio cara a motores de búsqueda, en este punto se informa de estos errores y en que están afectando principalmente al sitio.

2. En la segunda fase, estos son los pilares fundamentales que tenemos definidos dentro de lo que sería una Campaña SEO:

  1. Technical SEO
  2. Link Building 
  3. Content Marketing
  4. Analysis & Reporting

Te puede interesar este artículo de SEO para eCommerce: cómo posicionar tu tienda online en buscadores

Planificación de proyectos y comunicación con clientes

Aterrizamos las acciones necesarias y las ordenamos en función de la prioridad (impacto esperado, facilidad de implementación). Para ello, construimos un entorno colaborativo ágil, apoyándonos en la metodología KANBAN y distintas herramientas de trabajo.

Usamos Clickup como la herramienta de gestión y damos acceso a los clientes para que tengan visibilidad sobre nuestro trabajo y progreso en todo momento.

Utilizamos Google Drive como repositorio de información y Slack, Google Workspace y Microsoft Teams como herramientas de comunicación.

Nuestros clientes conservan la propiedad y tienen acceso a todas sus cuentas publicitarias.

Nos comunicamos en directo a través de Slack en nuestro día a día, y definimos reuniones recurrentes según las necesidades de cada proyecto.

Reporting de resultados

La creación de Dashboards de control nos permiten de un solo vistazo tener controladas las KPIs y métricas clave de negocio.

La medición efectiva de las acciones digitales es fundamental para una toma de decisiones acertada. Nosotros realizamos configuración técnica de KPIs que nos permite conocer la realidad de esas acciones.

Recomendamos vincular las acciones digitales a la información empresarial, ejecutándolo a través de un cuadro de mando. Esto se lleva a cabo a través de un cuadro de mando centralizado que refleja la evolución real del propio negocio, y cómo cada uno de los actores involucrados en los medios digitales impacta en los resultados de la empresa.

Luego, actuamos como un conductor tratando de comprender el efecto de los diferentes esfuerzos de los medios y sentando las bases para la toma de decisiones.

Adaptamos nuestros informes y los evolucionamos para satisfacer las necesidades del cliente. Partimos de los informes del cliente y realizamos un proceso de depuración, gestión y validación de datos para recoger las necesidades actuales de reporting, proponiendo nuevos cuadros de mandos.

Dashboard ejecutivo de VIVA! Conversion.
Dashboard ejecutivo de VIVA! Conversion.

La frecuencia con la que proporcionamos información depende de las necesidades de nuestros clientes. Usamos estos informes como base para las reuniones con el fin de tomar decisiones.

Entendemos que cuanto más precisos sean los cuadros de mando, mejores decisiones se pueden tomar para lograr mejores resultados. Aquí requerimos información del CRM para elaborar cuadros de mando avanzados con cifras reales de negocio. Cuanto más precisos son los cuadros de mando, más fiable es el análisis y nuestra capacidad de tomar decisiones basadas en datos.

Cómo aplicamos KANBAN

Una vez ya sabes cómo gestionamos nuestros proyectos, vamos a detallarte cómo implementamos la metodología Agile con KANBAN.

KANBAN es un método de gestión del flujo de trabajo que ayuda a las organizaciones a gestionar y mejorar los sistemas de trabajo. Aprende a visualizar el trabajo y a mejorar la eficiencia.

Proceso iterativo: analizar, aprender, optimizar, testar y escalar.
Proceso iterativo: analizar, aprender, optimizar, testar y escalar.

Principios de KANBAN

Estos son sus principios:

  • Flujo de trabajo visual: el proceso más simple se divide en tareas a realizar, tareas en progreso y tareas realizadas. Dependiendo de la complejidad del proyecto y de la adaptación a la organización surge la necesidad de otras divisiones (backlog, tareas bloqueadas).
Tablero KANBAN simplificado
Tablero KANBAN simplificado
  • Priorización: las tareas se ordenan de más a menos prioridad, y este orden debe mantenerse a lo largo de todo el proceso.
  • La cantidad de trabajo en progreso [In progress] debe estar limitada para asegurar que se completen unas tareas antes de iniciar otras, de forma que no se diluyan las prioridades y el equipo pueda estar centrado.

Se basa en un proceso de mejora continua muy flexible, centrado en el trabajo colaborativo. Es el marco perfecto para aplicar Agile a la gestión de proyectos digitales.

Aplicación de KANBAN para Proyectos de SEO

Es crucial apoyarse en un gestor de proyectos para poder aplicar la metodología KANBAN. En VIVA! Conversion, confiamos en Click-Up para esta función.

Nuestros proyectos SEO suelen ser recurrentes y van adquiriendo forma con la intervención del cliente, por lo que nuestra adaptación de KANBAN nos lleva a utilizar las siguientes columnas:

Ejemplo de proyecto KANBAN en ClickUp
Ejemplo de proyecto KANBAN en Click-Up
  • Backlog: tareas pendientes. Es la «cola» de tareas, un cajón de cosas que hacer que aún no se han planificado en el tiempo.
  • Pendiente: tareas a realizar. ¿Cuándo hay que realizar estas tareas? ¿Cómo se definen los tiempos? A través del Sprint. Siguiendo las pautas de Agile y en este caso adoptando uno de los principios de la metodología Scrum, en VIVA! Conversion se trabaja por Sprints:
    Un sprint es un período de tiempo cerrado durante el cual se generan entregables. En nuestro caso, ese Sprint es habitualmente de un mes. Por tanto, en el To Do encontraremos las acciones a realizar dentro del Sprint (un mes). A final de mes, esa columna debe quedar vacía. A principio de mes se llenará con tareas del Backlog y las que surjan de la planificación con el cliente.
  • In Progress: tareas en progreso. Todas las tareas que se están llevando a cabo en este momento.
  • Review / Blocked: fruto de la adaptación de Agile a nuestro servicio surge esta columna que contiene aquellas tareas cuyo progreso se ha detenido por «fuerzas externas» (se requiere colaboración del cliente o la propia herramienta está limitando la continuidad de las acciones).
  • Closed: tareas realizadas que se van apilando.

Características de un Equipo de SEO Ágil

Hay cuatro características importantes presentes en cada equipo de SEO Ágil de éxito:

  1. Formas de trabajo ágiles.
  2. Decisiones basadas en datos.
  3. Ejecución por SPRINTS.
  4. Tienen como referencia el Manifiesto de Marketing Ágil.

Equipo de SEO Ágil
Equipo de SEO Ágil.

Trabajo en equipo y colaboración

Agile tiene un enfoque colaborativo, multidisciplinar y que permite a todos los miembros del equipo aportar ideas para la mejora continua. En la aplicación a proyectos digitales, lo ideal es que exista un Project Manager responsable de cada proyecto.

Dependiendo del nivel de complejidad de este, puede ser necesaria además la colaboración de especialistas. Por ejemplo expertos en producto y otros servicios (Analytics, CRO, etc). Si se requiere ayuda en determinadas áreas, se incluyen los perfiles específicos en el proyecto.

Idealmente, existe un rol que supervisa todos los proyectos y ayuda a resolver cuellos de botella garantizando el flujo operativo. Sería el Scrum Master, continuando con la jerga de Agile.

Tomar decisiones basadas en datos

Los profesionales del SEO ágil usan los datos para medir y ajustar sus esfuerzos.

La metodología de trabajo de la agencia de VIVA Conversion se basa en datos. Incluye medición, análisis, data-driven, estrategia y decisión.

Para los profesionales que realizamos SEO ágil nuestra metodología de trabajo se basa en datos, el método científico, nuestra dilatada experiencia y una pizca de intuición (fundamental en entornos tan cambiantes). Todo esto, junto a la colaboración cercana con nuestros clientes, nos indica el camino a seguir.

Felipe García, SEO Manager de VIVA! Conversion.

Publicaciones rápidas e iterativas

Los equipos de SEO ágil suelen utilizar sprints, que son, como hemos descrito con anterioridad, periodos de tiempo breves durante los que un equipo de scrum trabaja para completar una cantidad determinada de trabajo.

Tienen como referencia el Agile Marketing Manifesto

Por último, aunque no menos importante, tienen como referencia los valores y principios del Agile Marketing Manifesto, el cual cuenta con cinco valores fundamentales y diez principios imprescindibles para lograr la agilidad en su trabajo. Estos valores y principios sustentan todas las prácticas que un equipo decide emplear, como las reuniones rápidas, los sprints y los tableros de KANBAN.

Nuestra experiencia con KANBAN para proyectos de SEO

Destacamos las ventajas de trabajar con KANBAN en la agencia:

  • Facilita la adaptación al cambio. En el entorno de procesos digitales es fundamental que el modelo de gestión de proyectos sea flexible, pues las necesidades del cliente y de la demanda son cambiantes y se requiere rapidez de adaptación para el éxito de las campañas.
  • Permite responder mejor a las necesidades del cliente alineando las prioridades. Ayuda a priorizar las acciones de mayor impacto y a evitar tareas time consuming que no aportan valor.
  • Reduce el estrés gracias a la transparencia:
    • Del equipo: porque conoce el status del proyecto en todo momento y puede gestionarse mejor el tiempo.
    • Del cliente: porque también puede conocer el status del proyecto en todo momento, saber qué acciones se han realizado y cuáles se van a realizar.
  • Facilita el desarrollo profesional en la agencia: al ser inclusivo, potencia que los miembros perfeccionen habilidades en diferentes áreas y su introducción en los proyectos como expertos.
  • Mejor gestión interna del tiempo y planificación de las cargas del equipo.

Consejos en la aplicación de KANBAN para proyectos de SEO:

Finalizamos con dos recomendaciones que surgen de nuestra experiencia con la adopción de esta metodología de trabajo:

  • Negociación del Sprint. Todos los meses se revisan los resultados con el cliente y se planifica el Sprint siguiente. Al principio resulta muy complicado estimar el tiempo de las tareas para configurar un Sprint viable. Poco a poco se van internalizando los tiempos y esto se hace más fácil.
  • La metodología es flexible pero las normas son estrictas: es necesario respetar los Sprints, la cantidad de Work in Progress si se ha establecido una limitación y la priorización de tareas.

¿Cómo elegir la mejor agencia SEO?

Hay muchas razones por las que debes hacer SEO para tu eCommerce con la metodología Agile.

Ponte en contacto con nosotros para que analicemos tu proyecto y encontremos una estrategia de posicionamiento adecuada para tu negocio.

¿Cómo elegir la mejor agencia SEO?

Elegir una agencia SEO que cumpla tus necesidades no es tarea fácil. Hay multitud de agencias de posicionamiento web y es una decisión complicada encontrar un servicio profesional y adaptado a las necesidades y características de cada proyecto. 

Pero no desesperes, entérate de todo lo que debes saber para elegir la mejor agencia de posicionamiento web.

Qué te puede aportar una Agencia SEO

Antes de adentrarnos en las características de un buen equipo de SEO, vamos a abordar todos los beneficios que te puede aportar el servicio de SEO a tu negocio online.

Aumentar las ventas de tu negocio online

Si estás buscando aumentar las ventas de tu negocio, empresa, tienda online o marca. El objetivo es transaccional, y la estrategia SEO en conseguir aumentar las ventas para obtener el mayor ROI posible. Teniendo en mente que la visión es estratégica para maximizar los beneficios.

Aumentar la visibilidad de la web

Con buenas praxis SEO verás un crecimiento de en la tendencia de impresiones y clics. Este incremento en la trayectoria de visibilidad suele conllevar un aumento del tráfico orgánico.

Aumento de visibilidad de la web en Google Search Console.
Aumento de visibilidad de la web en Google Search Console.

Aumentar la calidad del tráfico orgánico.

Los especialistas SEO cualificamos tu tráfico orgánico para que las sesiones sean más valiosas. Es decir, con menos sesiones se incrementarán los leads. Porque llegado a un punto, lo natural no es que el tráfico crezca de manera exponencial, sino dar mayor calidad a cada sesión, garantizando que el usuario encuentra lo que busca y evitando así multitud de sesiones sin calidad.

Mejorar la estrategia: Medir, medir y medir.

Siempre hay que estar analizando datos, tendencias, evolución, hay que estar familiarizado con Google Analytics y Google Search Console: sesiones, usuarios, tasa de conversión, conversiones, clics, impresiones, posición media… Porque de esta manera la estrategia funciona.

Ninguna estrategia SEO es cerrada ni inmutable, lo necesario es que se adapte en el tiempo y según evolucione el proyecto así vamos pivotando. Nos adaptamos a las necesidades de cada proyecto según lo que nos cuentan los datos. Por ello, contar con un perfil analítico es muy importante para garantizar el éxito de un proyecto en las SERPs.

Posicionar tu negocio online en Google

Si no apareces en Google no existes. Con el aumento del mundo digital si no estás bien posicionado es como si fueras invisible. No dejes que la competencia se adelante y comienza una estrategia SEO que te ayude a ganar terreno y ventas en tu sector. Cada empresa y negocio tiene un espacio en los resultados de búsqueda y lo ideal es tener este espacio delimitarlo.

Potenciar tu negocio local

Un equipo SEO tiene las herramientas para hacer crecer tu negocio en tu localidad. Nada más relevante que los usuarios de tu ciudad te encuentren cuando buscan en Google.

¿Por qué necesitas una agencia SEO?

Contar con un partner o tener como outsourcing una Agencia SEO puede ser la palanca que necesita tu negocio ¿Sabes por qué?

Se mimetiza con los updates del algoritmo

Es de vital importancia para los SEOs conocer al mínimo detalle cada actualización de Google y saber a qué afecta para tomar medidas en tu proyecto y mejorarlo. El algoritmo es cada vez más sofisticado, por lo que es necesario contar con profesionales que se adapten y tengan en cuenta cada actualización en la estrategia SEO del proyecto. Recuerda, siempre hay rango de mejora.

Conocer a tu buyer persona

¿Sabes quién es tu cliente potencial? Conociendo a tu buyer persona es vital para incluir información relevante que satisfaga sus inquietudes y que le alcance en todas las fases del funnel. La información es poder y nada es más valioso que saber a quién nos dirigimos para enfocar la estrategia digital. De esta manera proporcionamos a nuestro cliente potencial todo lo que está buscando.

Te puede interesar este artículo: Qué es un buyer persona: cómo crearlo, medirlo y tomar decisiones estratégicas de SEO (+ plantillas)

Hablar el mismo idioma que Google

Hablar el mismo idioma que Google: El profesional SEO habla el idioma teniendo en cuenta al usuario y teniendo en cuenta el bot de Google. Es necesario conocer el idioma de Google pero dirigir la estrategia para captar al usuario. Hay que conjugar las dos lenguas para que la estrategia funcione.

Conocedores de cualquier lenguaje de programación

Un equipo SEO profesional y trabaja con webs construidas en cualquier lenguaje: Angular, JavaScript, PHP, frameworks JS como Vue, React… CMS conocidos como WordPress, Shopify, Magento, Prestashop, Drupal….¡Lo que sea!

Mantener los límites de unas expectativas realistas

Analizar y estudiar el punto exacto en el que está tu proyecto para delimitar cuáles son los puntos débiles y fuertes en cada momento. Porque situarse en el punto clave en cada momento es imprescindible para detectar oportunidades y aprovecharlas. Los KPIs a seguir serán diferentes en cada momento del proyecto.

Abarcar todos los sectores

El ámbito agencia procura estar en continuo aprendizaje y formación. Por lo que una amplia experiencia en diversos sectores, con proyectos de todo tipo de tamaño, sería lo ideal en una agencia SEO.

¿Cuáles son las claves para identificar una buena agencia SEO?

Una vez que ya sabes todo lo que te puede aportar una Agencia SEO en el crecimiento de tu negocio, aquí tienes un listado de características para poder identificar y escoger la mejor Agencia SEO para tu negocio online. Descubre cuales son los ingredientes de un buen equipo SEO:

Equipo profesional especializado

Es imprescindible que las personas del equipo tengan amplia experiencia y conocimiento para llevar a cabo el éxito del proyecto. Desde los últimos años el algoritmo es aún más sofisticado y hacer SEO en condiciones cada vez es más complejo. Por lo que tener un equipo de profesionales con experiencia equilibra la balanza a nuestro favor de manera considerable.

Reunión del equipo de VIVA! Conversion con su cliente The Bath
Reunión del equipo de VIVA! Conversion con su cliente The Bath

Visión estratégica y de negocio

El SEO no solo hace SEO, ya que será imprescindible conocer los objetivos de negocio para aunar esfuerzos y darle un sentido al proyecto. Los objetivos se plantean teniendo en cuenta las prioridades de negocio y se busca ejecutar las acciones que traerán mayor impacto. Siempre teniendo en cuenta las necesidades del cliente.

Confianza

Optimizar el canal orgánico de una web genera confianza en tus clientes y los fideliza. Es un canal natural en el que el usuario encuentra información de todo de manera natural en los resultados de búsqueda que le ayuda a sintonizar con la marca.

Conocimiento del canal orgánico

Conocer el funcionamiento del canal orgánico es fundamental para manejar el control de expectativas. El SEO no da beneficios de un día para otro, pero es una disciplina muy rentable y agradecida cuando se trabaja bien. Fijar unas expectativas nos dará un horizonte sobre el que hacer foco y ver cómo va evolucionando y creciendo según se va trabajando.

Lo normal es que los KPIs a seguir se pacten con la agencia al comienzo del proyecto y en bases a un análisis y estudio se delimite la situación actual y en qué debemos fijarnos para ver evolutivo. Siempre según donde esté proyecto, si es un proyecto poco o nada trabajado, o, en cambio, está “más maduro”.

Imagen de un experto realizando una auditoría en nuestra Agencia SEO
Felipe García, Head of SEO de VIVA! Conversion, realizando una auditoría SEO.

Ser parte del equipo

El SEO es uno más dentro de tu proyecto, lo que genera un clima ideal para conseguir los objetivos. Se nota cuándo se mima un proyecto y esto es básico para confiar en una agencia.

Comunicación clara y profesional

La mayor parte del trabajo SEO es comunicación. Con una relación transparente con el cliente es posible saber el por qué de las acciones y cuál es el sentido. Es importante generar un clima de plena confianza en el que el cliente esté plenamente seguro y tenga toda la información de qué se está haciendo en cada momento, dónde está el proyecto y dónde se ha fijado el horizonte.

Casos de éxito

Conocer los casos de éxito de una agencia SEO nos da pistas de cómo trabajan, además de crear confianza y de fidelizar a los clientes que están satisfechos. Nos transmite confianza conocer las empresas y proyectos que han mejorado gracias a un buen trabajo SEO. Pero sobre todo saber cómo lo han planteado y analizado

Conclusiones

Descubre todo lo que el posicionamiento web puede aportar a tu negocio. Si no lo estás trabajando o no de manera adecuada, estás perdiendo oportunidades y ventas. Es imprescindible encontrar una agencia que trabaje con proyectos y webs de todo tipo y que tenga experiencia en conseguir mejorar el tráfico orgánico y los leads de tu negocio.  ¡Piénsalo! Nada es más importante para tu negocio que estar en buenas manos.

En VIVA! Conversion tenemos un departamento SEO con profesionales que analizarán tu proyecto y trazarán una estrategia junto con objetivos de negocio encaminada a conseguir leads y el máximo ROI posible.

¿Quieres aprender más sobre estrategia digital y SEO? Echa un vistazo a los artículos de nuestro BLOG y regístrate a nuestra newsletter. Para cualquier duda, aquí nos tienes.

«Featured Snippets»: qué son, cómo impactan en el SEO y cómo conseguirlos

La página de resultados del buscador de Google ha ido evolucionando desde su creación en septiembre de 1998. Pasando de mostrar información compuesta de texto plano y enlaces a enriquecerla con resultados más llamativos con diferentes formatos. Uno de los primeros cambios en la manera de presentar los datos a los usuarios fue la integración de los «Featured Snippets«.

¿Qué son los “Featured Snippets”?

Los “Featured Snippets” o «Fragmentos destacados» son resultados de búsqueda con formato de texto plano, tabla, lista o video que responden a la intención del usuario en la propia SERP de Google. Ocupan más espacio que los resultados habituales, consiguiendo despuntar sobre el resto de resultados orgánicos.

En los resultados orgánicos de texto “comunes” se muestra primero la URL, el título de la página a continuación y debajo la meta descripción.

Estructura de un resultado orgánico de texto "común"
Estructura de un resultado orgánico de texto «común«

En cambio, en los fragmentos destacados se invierte el orden en el que se presenta la información con respecto a los resultados de búsqueda “habituales”. Dando más relevancia al contenido extraído de la propia web en relación a una consulta de búsqueda, que al título y al enlace de la misma. Se podría decir que la meta descripción se sustituye por información que puede ser presentada de varias formas diferentes que veremos a lo largo de este mismo artículo.

Los «Featured Snippets» o «Fragmentos destacados» ocupan la posición 0, ya que siempre aparecen por encima del resto de resultados orgánicos.

¿Qué tipos de “Featured Snippets se muestran en Google?

Actualmente, existen 4 tipos de fragmentos destacados:

1. Fragmentos destacados de texto

Los fragmentos destacados de texto dan respuesta a una búsqueda con una definición objetiva (sin mostrar ningún posicionamiento personal al respecto) y concisa (en torno a 40 y 60 palabras). Para conseguir el texto destacado se deben escribir definiciones de los conceptos que estamos tratando tal y como las encontraríamos en un diccionario.

featured snippet de texto para búsqueda
Resultado de fragmento destacado de texto para la de búsqueda en Google «tiktok shopping»

2. Tablas destacadas

Los “Featured Snippets” con formato de tabla son extraídos por Google del contenido de la propia web con formato de tabla HTML: <table>, <tr>, <td> y los muestra en las SERP en para responder a una intención de búsqueda concreta.

Featured Snippet de tabla para
Resultado de «Featured Snippet» de tabla para la búsqueda «cuentas de youtube con más suscriptores».

A continuación se muestra una captura con la tabla de la que Google ha extraído la información para mostrarla en la SERP. La tabla está formateada como tabla HTML.

extracción featured snippet tabla cuentas de youtube con más suscriptores
Extracción del «Featured Snippet» tipo tabla para la búsqueda «cuentas de youtube con mas suscriptores»

3. Fragmentos destacados con lista de elementos enumerados

Para que Google muestre los fragmentos destacados de listas de elementos enumeradas, debemos presentar la información de manera que pueda interpretarla adecuadamente

Facilitamos la interpretación por parte del motor de búsqueda si incluimos la información en el código de la web con listas en HTML: <ol>, <li>. El listado puede contener una serie de pasos enumerados (Paso 1, Paso 2, Paso 3…) o simplemente una serie de números (1, 2, 3…).

Pero la información en el sitio web no tiene que tener necesariamente formato de lista para que Google muestre una tabla destacada. Podría bastar con iniciar la enumeración incluyendo encabezados H3 o H4, precedidos de un encabezado que adelante el contenido que vamos a enumerar para que Google interprete la información y la muestre en forma de tabla como resultado destacado.

featured snippet tipo lista sin enumeración blogs de montana
«Featured Snippet» tipo lista enumerada para la consulta «mejores blogs de montaña»

En este caso Google ha extraído la lista enumerada de la tabla de contenidos del artículo:

Tabla de contenidos de la web en posición 0 para la consulta "mejores blogs de montaña"
Tabla de contenidos de la web en posición 0 para la consulta «mejores blogs de montaña»

4. Featured Snippets” con listas de elementos sin enumeración

Para determinadas búsquedas de respuesta simple, Google muestra como resultado destacado una lista de elementos que no necesita que sigan un orden. Para ello, extrae la información del código de la web y la presenta al usuario en la SERP. Cuando el listado tiene más elementos de los que caben en el snippet se muestra un enlace con ancla «Más elementos…» o similar que conduce al usuario al sitio web en el que podrá consultar el listado completo.

En el siguiente ejemplo el fragmento destacado lista una serie de marcas de relojes y se muestra a continuación del bloque de anuncios de Google Shopping:

Featured Snippet tipo lista sin enumeración para
«Featured Snippet» tipo lista sin enumeración para la consulta «marcas de relojes»

5. Fragmentos destacados de video

Cuando Google detecta que la consulta de búsqueda de un usuario se puede responder con un video, lo mostrará como resultado destacado en la posición cero.

fragmento destacado de video para la consulta
Fragmento destacado de video para la consulta «como colgar un cuadro»

Por experiencia propia y por la información recabada en diferentes fuentes, casi el 100% de las veces Google destaca resultados de videos en YouTube. Pero ya comienza a mostrar videos de plataformas como Tik Tok en los resultados orgánicos y es de prever que si los videos de estas plataformas responden a la consulta de búsqueda comience a destacarlos con el tiempo.

Tik Tok en la SERP de Google
Tik Tok en la SERP de Google

¿A dónde dirige al usuario el enlace de un fragmento destacado?

Al hacer clic en el enlace de un fragmento destacado nos dirige al ancla, es decir, a la sección concreta de la URL en la que se muestra el contenido que vimos en el resultado. En algunas ocasiones el contenido aparece subrayado para que podamos identificarlo rápidamente.

¿Cómo aparecer en Google con un fragmento destacado?

Ya hemos comentado los 5 tipos de destacados que se muestran en el buscador, pero ¿qué hay que hacer para conseguirlos además de seguir los tips que se mencionan en cada uno de ellos?

Google hace referencia en las Search Quality Rating Guidelines a que para conseguir un fragmento destacado la consulta debe tener intención informacional del tipo “Know Simple y la web debe incluir una respuesta a la consulta «que se puedan mostrar de forma correcta y completa, en 1 ó 2 frases o en una lista corta, en la pantalla de un teléfono móvil».

Además, la web debe tener buenos rankings generales para obtener un fragmento destacado. Si un sitio web no clasifica en TOP 10 de Google para ninguna consulta de búsqueda, hay pocas posibilidades de conseguir un “Featured Snippet”. En otras palabras, es necesario trabajar el SEO de manera global en la web para que Google nos destaque en los resultados. Ya que las páginas web que obtienen destacados, son resultados en los que Google confía y previamente los ha mostrado en posiciones TOP del buscador.

¿Cómo impacta en el SEO obtener un “Featured Snippet”?

Como mencionamos al principio, los resultados destacados responden a la intención del usuario en la propia página de resultados de Google. Por ello, es probable que los usuarios no lleguen a hacer clic para acceder al sitio web porque ya han encontrado la respuesta a su consulta.

En este caso, el hecho que alguna de las URLs de una web se muestren como destacadas para determinadas consultas, pueden disminuir su tráfico orgánico. Ya que estos resultados, antes de ser destacados, ya tenían una buena posición orgánica, con sus impresiones y sus clics. Se seguirán generando consultas para esa búsqueda, pero el número de clics hacia el resultado disminuirá.

Por otro lado, si los usuarios necesitan ampliar la información que se muestra en el destacado, y deciden hacer clic en el enlace del resultado destacado para ampliar la información, la tasa de clics y por lo tanto, el tráfico orgánico de la URL, se verá incrementado.

Cómo desactivar los “Featured Snippets”

Como hemos visto en el apartado anterior, los destacados tienen una doble vertiente. Pueden beneficiarnos haciendo que aumente el tráfico orgánico. O por el contrario, dar una respuesta tan útil al usuario que no necesita visitar el sitio web porque ya ha quedado satisfecho.

En el informe Sparktoro de junio de 2019 se reveló que «la mayoría de todas las búsquedas basadas en navegador en Google.com resultó en cero clics«.

Informe SparkToro - jumpshot con el reparto de clics en la SERP
Informe SparkToro – jumpshot con el reparto de clics en la SERP

Por lo tanto, si detectamos que los destacados están perjudicando al tráfico orgánico y no queremos que se sigan mostrando, podemos configurar las etiquetas que nos proporciona Google en el código de las URLs que nos interese para que no se sigan mostrando.

¿Quieres más consejos de SEO?

Si te ha gustado este artículo, también puedes consultar posts de SEO aquí.

Y no olvides seguirnos en YouTube para obtener más consejos útiles para aumentar vuestra visibilidad en las primeras páginas de Google.

Qué es un buyer persona: cómo crearlo, medirlo y tomar decisiones estratégicas de SEO (+ plantillas)

Cuando comenzamos con una estrategia de SEO lo primero es definir quien será nuestro Buyer Persona para saber quien es nuestro cliente potencial. Pero no podemos quedarnos en eso, debemos de ir más allá creando contenidos mediante un Content Calendar que satisfagan las necesidades de ese Buyer Persona que hemos creado.

Por otro lado, una vez realizado ese esfuerzo es necesario monitorizarlo para ver los resultados e ir ajustándolo para mejorarlo en el tiempo, para ello utilizamos un sistema de tracking como el que nos proporciona la herramienta Sistrix.

En este artículo voy a compartir el paso a paso para trabajar un Buyer Persona para que tengáis alineadas todas las partes de vuestra estrategia SEO. Os voy a mostrar un ejemplo trabajado con un cliente de Alquiler Vacacional para qué veáis como lo realizamos en VIVA! Conversion y sea más fácil para vosotros implementarlo.

Cómo crear un Buyer Persona

Para comenzar a crear un Buyer Persona, si tenéis ya datos con los que trabajar, pues mucho mejor.

Podéis, por ejemplo, preguntar al CEO o CMO de vuestro negocio quien es su cliente potencial y contrastar datos en facturas (sabréis si es hombre/mujer). Otra forma de obtener información es mediante Analytics con los datos demográficos de Edad y Sexo.

En el caso práctico de este artículo se ha identificado el Buyer Persona gracias a Analytics. Nuestro Público Objetivo se llama «Marta» y es una mujer entre 25 y 34 años.

Edad del Buyer Persona en Analytics
Edad del Buyer Persona en Analytics

Sexo del Buyer Persona
Sexo del Buyer Persona en Analytics

Definiendo el Buyer Persona

Una vez hayáis creado vuestro Público Objetivo, continuaréis trabajando para ir definiendo con más detalle a vuestro Buyer Persona mediante diversos apartados que os comparto a continuación:

  • Sobre el Buyer Persona
  • Qué información busca
  • Cuál es su proceso de decisión
  • Cómo realizar las campañas
Descripción de una Buyer Persona
Descripción de una Buyer Persona
Descripción de la información que busca una Buyer Persona
Descripción de la información que busca una Buyer Persona
Proceso de toma de decisión de una Buyer Persona
Proceso de toma de decisión de una Buyer Persona
Ejemplo de cómo realizar campañas dentro del Funnel teniendo en cuenta el Buyer Persona
Ejemplo de cómo realizar campañas dentro del Funnel teniendo en cuenta el Buyer Persona

Podéis descargaros la plantilla utilizada aquí abajo, si os surge cualquier duda contactad con nosotros

Content Calendar de un Buyer Persona

Una vez tengáis definido a vuestro Buyer Persona, tenéis que calendarizar vuestras diferentes campañas y etapas del Funnel de compra en la que se encuentra mediante un Content Calendar introduciendo diversos datos con los que trabajaremos.

Content Calendar del Buyer Persona
Content Calendar del Buyer Persona

Podéis descargaros la plantilla utilizada aquí abajo, si os surge cualquier duda contactad con nosotros

Visibilidad del Buyer Persona

Una vez tengáis definido vuestro Buyer Persona y calendarizado los contenidos mediante el Content Calendar comienza lo interesante… vais a trackear a vuestro Buyer Persona mediante Sistrix.

¿Pero cómo vais a hacer esto?

En este paso utilizaréis Sistrix, una de las herramientas más potentes de gestión de SEO. Os resultará muy útil para este ejercicio y para hacer buen análisis de oportunidad y competidores.

Lo primero que vas a hacer al entrar a Sistrix es crear un proyecto nuevo y tener vuestro índice de visibilidad propio en Sistrix.

Te puede interesar el artículo con el paso a paso: Crear un índice de visibilidad personalizado


 Trackear a nuestro Buyer Persona mediante Sistrix.
Trackear a vuestro Buyer Persona mediante Sistrix.

Una vez creado el proyecto crearéis etiquetas para cada una de las campañas, categorías y estados de compra del Buyer Persona asociando estos a las palabras clave que queráis trackear sabiendo así realmente para que campañas, estados de compra y Buyer Persona estáis trabajando mejor pudiendo medir, corregir y optimizar.

Medición del Buyer Persona

En este punto ya vais a poder tomar decisiones basándoos en métricas claras. Es importante que observéis que están ordenadas.

Abajo os muestro una gráfica de ejemplo dónde podéis observar un caso que tuve donde es muy evidente cuándo se empezó a realizar la medición de forma ordenada. Previamente a mi trabajo no se seguía ningún criterio claro y esto hacía difícil tomar acciones consecuentes a los contenidos realizados.

Métricas del Buyer Persona antes y después de ser ordenadas
Métricas del Buyer Persona antes y después de ser ordenadas

Una vez comencéis a hacer la medición de forma ordenada, podéis compararla con la competencia que hayáis estimado oportuna.

Con la visibilidad por etiquetados podéis saber que funciona y que no pudiendo corregir, potenciar o eliminar y sustituir por otras campañas.

Índice de visibilidad con etiquetas en Sistrix
Índice de visibilidad con etiquetas en Sistrix

Podéis trabajar los etiquetados para orientaros a mejorar aquellas keywords que estén dentro del etiquetado que se defina, por ejemplo en este caso práctico, podría orientarme a mejorar el BOF de Marta si quisiera. Lo haría potenciando las palabras clave asociadas a ese estado, ya sea bien mediante linkbuilding interno o creando más contenido asociado a ella.

Cuadro con palabras clave en Sistrix
Cuadro con palabras clave en Sistrix

Lo mismo ocurre con los cambios en el ranking, puedo ir monitorizando al detalle como van ocurriendo dependiendo del filtro que quiera utilizar en cada momento, pudiendo atacar un Buyer Persona, estado o campaña específica.

Cuadro con ranking de palabras clave en Sistrix
Cuadro con ranking de palabras clave en Sistrix

Como veis, las posibilidades que nos ofrece la herramienta de Sistrix son infinitas.

¿Quieres más consejos de SEO y la herramienta Sistrix?

Si le gustó este artículo, también puedes consultar posts de SEO aquí.

Y no olvides seguirnos en YouTube para obtener más consejos útiles para aumentar vuestra visibilidad en las primeras páginas de Google.