Google Search Console, antiguamente conocido como Google Webmaster Tools, es un conjunto de herramientas e informes, facilitados por Google de manera gratuita, que están orientados a mejorar nuestra presencia en buscadores. Gracias a Google Search Console, podemos medir el rendimiento y el tráfico de búsqueda de nuestro sitio web, corregir problemas actuales y conseguir, con ello, un mejor posicionamiento SEO.

En el pasado año 2018, Google lanzó una nueva versión de Search Console, sobre la cual siguen trabajando en nuevas actualizaciones y mejoras. De hecho, no todas las funcionalidades de Google Search Console están disponibles en la nueva versión. Hay herramientas e informes a los que solo podremos acceder desde la antigua versión.

En esta guía de Google Search Console repasaremos todas las opciones, tanto de la nueva como de la anterior versión, con el objetivo de sacarle el máximo partido y aprovechar todo su potencial SEO.

Índice

 

Propiedades de Google Search Console

¿Qué son las propiedades y cómo añadirlas?

Google Search Console se gestiona a nivel de propiedad, es decir, de sitios web que asociamos a nuestro usuario y sobre los que verificamos que tenemos permisos para poder trabajar con ellos en Search Console.

Como usuarios individuales, podemos tener asociadas hasta 1000 propiedades de Google Search Console. Puede haber varios usuarios que tengan asociada una misma propiedad, como veremos en un apartado posterior.

Las propiedades se añaden de diferente manera en función de la versión de Google Search Console:

  • En la versión antigua, debes ir a la página principal, sin ninguna propiedad elegida (en caso de que ya tuvieras varias propiedades creadas o asociadas) y pulsar el botón “Añadir una propiedad”, que se encuentra en la parte superior derecha de la página.
  • En la nueva versión, en el selector de propiedades de la parte superior izquierda de la página, tenemos un enlace con el texto “+ Añadir propiedad”.

Para añadir la propiedad, una vez seguido el paso anterior, únicamente tendremos que añadir la URL del sitio. Hay que tener en cuenta varias cuestiones:

  • La versión http y la versión https de nuestro sitio web, se consideran propiedades diferentes.
  • Lo mismo sucede con las versiones con y sin www.
  • Si tenemos subdominios, podemos añadirlos de manera independiente, para hacer una gestión específica de dicho dominio.
  • Lo anterior también aplica a directorios o carpetas de nuestro sitio web, como por ejemplo “luismarketingonline.es/blog/”. Yo podría añadir ese directorio como propiedad en Google Search Console, de cara a hacer un tratamiento específico al Blog de mi sitio web.

Si nuestro sitio web tiene versiones tanto en el protocolo http como en el https, entonces debemos añadir cada uno de ellos como una propiedad individual. Del mismo modo, si el sitio web tiene varios dominios (por ejemplo: example.com, m.example.com y www.example.com), también debes añadirlos por separado.

Además, debemos añadir como propiedad cada carpeta o directorio de los que quieras hacer un seguimiento independiente.

Una vez que una propiedad es creada por primera vez, ésta empezará a recibir datos, no antes. Y empezará a hacerlo aún incluso antes de ser una propiedad verificada, que es el siguiente paso.

¿Cómo verificar una propiedad?

Verificar una propiedad es el proceso mediante el cual demostramos que somos los propietarios de un sitio web o que tenemos permisos para su gestión y configuración. Hay varios métodos de verificación:

  • Subir un archivo HTML al directorio raíz del sitio web que queremos verificar.
  • Añadir una etiqueta HTML en el código del sitio web que queremos verificar.
  • Mediante el código de seguimiento de Google Analytics.
  • Mediante el fragmento de contenedor de Google Tag Manager.
  • Mediante el proveedor de nombres de dominio, editando la configuración de DNS.

Todos estos métodos podemos gestionarlos desde Google Search Console. Se nos irá guiando de manera intuitiva en el proceso.

Debemos verificar individualmente cada una de las propiedades que añadamos, con independencia de que todas pertenezcan a un mismo sitio web.

Una vez con nuestras propiedades creadas y verificadas, comenzaremos a explotar la herramienta. De aquí en adelante, comenzaremos repasando los infirmes y herramientas de la nueva versión de Google Search Console. Acabaremos con la versión anterior, ya que hay partes interesantes que, de momento, no se han migrado a la nueva versión.

 

Informe “Descripción general”

Este informe funciona a modo de dashboard o resumen general de la situación de nuestro sitio web. En él, se muestra la evolución histórica y la situación actual de ciertos indicadores que podremos consultar con más detalle en otros informes de Google Search Console: rendimiento, cobertura y mejoras. Desde este panel, además, tendremos un enlace directo para acceder a cada uno de los informes.

Google Search Console - Descripción General

 

Informe “Rendimiento”

Este informe nos muestra el rendimiento de nuestro sitio web en el buscador de Google. Siempre en lo referido a resultados orgánicos. Aquí no se tienen en cuenta los resultados de campañas de Google Ads.

Desde este informe, podemos consultar las siguientes métricas:

  • Clics: indica el número de veces que los usuarios han hecho clic en un resultado de búsqueda para acceder a tu sitio web.
  • Impresiones: indica el número de veces que se ha visto un enlace a tu sitio web en los resultados de búsqueda.
  • CTR medio: es el porcentaje de impresiones que han generado clics. Se calcula dividiendo clics entre impresiones.
  • Posición media: se indica en qué posición de los resultados de búsqueda aparece tu sitio web de media. Hay que tener en cuenta que el uso de algunas funciones de búsqueda, como los carruseles o los paneles de información, complican la tarea de determinar la posición. Más información sobre la posición de resultados de búsqueda en la Ayuda de Search Console.

Estas métrica se muestran en un primer bloque de manera agregada, para el total del sitio web, acompañadas de un gráfico con la evolución en el tiempo de dichos valores.

En un segundo bloque, a continuación del anterior, podemos consultar una tabla donde, de una manera más específica, se muestran dichas métricas. Tenemos la posibilidad de consultarlas y analizarlas para las siguientes dimensiones:

  • Consultas: los términos de búsqueda de los usuarios. Es decir, las diferentes consultas en el buscador que hacen que se muestre un enlace a nuestro sitio web.
  • Páginas: las diferentes URLs de nuestro sitio web.
  • País: países desde los que se realiza la consulta.
  • Dispositivos: diferenciando entre ordenadores, móviles y tablets. Es de suponer que en el futuro se añadirá como dispositivo la pantallas de TV, ya que, desde hace unos meses, es un tipo de dispositivo que se puede analizar y configurar en YouTube y en Google Ads.
  • Apariencia en el buscador: agrupa resultados por funciones especiales de los resultados de búsqueda como, por ejemplo, resultados de búsqueda enriquecidos, páginas AMP (versiones optimizadas de páginas webs con el objetivo de mejorar la velocidad de carga en dispositivos móviles) o resultados de Web Light (versión ultraligera de páginas web que Google muestra en ocasiones en el buscador cuando la consulta se realiza desde móviles con conexiones muy lentas). Esta dimensión no siempre se muestra.

Por defecto, en los dos bloques se muestran únicamente dos métricas: clics e impresiones. Para que se muestren las otras dos, CTR y posición, debemos hacer clic en sus valores, en el primer bloque justo encima del gráfico.

Tenemos la opción de filtrar los resultados de ambos bloques por combinaciones de dimensiones y fechas. En la parte superior del informe, veremos una línea en la que se muestran los filtros que tenemos aplicados y un enlace con el texto “+ NUEVO”, desde el que podemos añadir nuevos filtros. Todos los filtros que se añadan funcionan en modo conjunto, es decir, se deben cumplir todos los filtros para que una consulta aparezca en los resultados.

Para modificar un filtro, basta con hacer clic en el mismo. Para eliminarlo, debemos hacer clic en la “x” junto al filtro. Los filtros de tipo de búsqueda y fecha no se pueden eliminar.

Estos filtros afectan a ambos bloques. Tenemos también la opción de aplicar filtros únicamente sobre la segunda tabla. Para activar estos filtros, debemos hacer clic en un triángulo invertido, formado por tres rayas, que se encuentra en la parte superior derecha de la tabla. A diferencia del filtro general, aquí la única dimensión que podremos usar como filtro es la referida a la “Consulta”, pero, a cambio, podemos filtrar por las métricas clics, impresiones, CTR y posición.

La mayoría de tablas de los informes de Google Search Console tienen la posibilidad de aplicar filtros de la misma manera.

El filtro de tipo de búsqueda, filtra o compara resultados por el tipo de búsqueda de Google que hacen los usuarios: búsqueda web (los resultados de búsqueda predeterminados), búsqueda de imágenes, búsqueda de vídeos, etc.

Al comparar los datos de ambos bloques, hay que tener en cuenta lo siguiente:

  • Los totales del gráfico pueden ser mayores a los de la tabla. El motivo es que en la tabla se muestra un máximo de 1000 filas.
  • Al filtrar o agrupar por URL o por consulta, es posible que la suma de los totales filtrados no sea igual al total no filtrado. Esto sucede porque las consultas anónimas se excluyen y los datos se acortan debido a las limitaciones de publicación.

Debemos tener también en cuenta la fecha de última actualización del informe de “Rendimiento”, la cual se muestra en la parte superior derecha del informe.

Una vez comprendido el informe, llega el momento de ver algunos ejemplos de cómo este informe puede sernos de utilidad. Podemos plantearnos preguntas como las siguientes:

  • ¿Qué páginas tienen un volumen de impresiones elevado y, sin embargo, tienen un CTR muy bajo? En dichas páginas deberíamos valorar si las metaetiquetas título y descripción son las más apropiadas (¿Son lo suficientemente llamativas para generar un clic?) o si, quizá, nos estamos posicionando por términos de búsqueda con una intención diferente de la que pensamos. Por ejemplo, este sitio web, a fecha de hoy tiene una posición media de entre 6 y 14 para diferentes consultas similares al término “curriculum de marketing digital”, debido a una página en la que muestro mi experiencia profesional. Sin embargo, el CTR es tremendamente bajo. El motivo es que, alguien que busca “curriculum de marketing digital”, por lo general está buscando consejos y/o plantillas para redactar ese tipo de curriculum vitae, mientras que lo que se va a encontrar, tal y como se puede adivinar por el título y la descripción del resultado, es algo diferente: el curriculum vitae de un profesional de marketing digital. Mi posicionamiento orgánico para esos términos de búsqueda es casual, no es algo buscado. Pero si así lo fuera, entonces debería plantearme que no estoy centrando mis esfuerzos en las palabras clave adecuadas.
  • ¿Qué páginas tienen una posición media muy cercana a la primera página de resultados sin llegar ella? La diferencia, en cuanto a tráfico, entre estar en la primera página de resultados y no estar, puede ser importante. Por ello, es interesante hacer un especial esfuerzo en mejorar el posicionamiento de aquellas palabras clave que están en posiciones 11 o 12. Para hacerlas llegar a la primera página, puede que incluso nos baste con optimizar nuestros links internos.
  • ¿Qué páginas tienen un CTR muy elevado y una mala posición media? Estas son páginas que, a priori, parece que son capaces de generar mucho interés y que, sin embargo, tienen una posición media en el buscador que haga que el volumen de tráfico potencial que puedan captar no sea muy elevado. Conviene darle una revisión a estas páginas.
  • ¿Estamos protegiendo correctamente nuestra marca? Es muy importante que, para todas las consultas en Google relacionadas con nuestra marca, aparezcamos en primera posición. En Search Console podemos agrupar y analizar de manera independiente los términos de búsqueda de marca utilizando un filtro por “Consulta”. En dicho filtro seleccionaremos la opción “Consultas que contengan” e introduciremos nuestro término de marca. Del mismo modo que agrupamos términos de marca, podemos plantearnos analizar otros grupos de consultas con un término común.
  • ¿Cómo cambia el tráfico de búsqueda a lo largo del tiempo? ¿De dónde procede? ¿Qué consultas de búsqueda tienen más probabilidades de mostrar tu sitio web?
  • ¿Qué consultas se realizan en dispositivos móviles? Muy útil para mejorar la segmentación para smartphones.

Cabe mencionar, por último en lo referido a este informe, que toda la información aquí recogida podemos descargarla en dos formatos: hoja de cálculo de Google o CSV. Para ello, en la parte superior derecha de la tabla del segundo bloque, tenemos un icono de una flecha apuntado hacia abajo que nos permite acceder a la descarga. Esto será algo que podamos hacer en la mayoría de tablas de los informes de Search Console.

 

Inspección de URLs

Este informe nos muestra datos sobre la versión indexada de cualquier URL de nuestra propiedad en Google. Datos relativos a presencia en Google, cobertura del índice y mejoras potenciales. La idea de Google es que esta herramienta sustituya por completo a “Explorar como Google“, presente en la versión anterior de Search Console.

Conviene remarcar que lo que se analiza es la versión indexada más reciente de la URL, no la versión publicada. Puede que nuestra página haya cambiado desde la última vez que Google la indexó. En todo caso, la versión indexada es la que Google utiliza para evaluar los resultados de búsqueda, así que es algo muy útil.

El informe se divide en tres bloques: Presencia en Google, cobertura y mejoras. En verdad, es equivalente a otros informes de Google Search Console, con la diferencia de lo que aquí se analiza es una URL específica, no el total de URLs del sitio web. Es por ello que, parte de la información necesaria para entender este apartado, será explicada en la zona de esta guía relativa a los informes equivalentes.

Presencia en Google

En este campo podemos recibir cinco valores diferentes, relativos a la URL consultada:

  • La URL está en Google: la URL se ha indexado y puede aparecer en los resultados de búsqueda. En principio todo correcto, pero hay que tener en cuenta que, si la URL está sujeta a una solicitud de eliminación o acción manual, puede figurar como “La URL está en Google” en este informe.
  • La URL está en Google, pero tiene problemas: la URL se ha indexado y puede aparecer en los resultados de búsqueda, pero hay algunos aspectos a corregir para aprovechar toda la potencia del buscador. Es decir, la URL está en Google pero podemos estar teniendo problemas con nuestras versiones AMP o con los datos enriquecidos, de tal modo que en los resultados de búsqueda no apareceremos con dichas funcionalidades. En este apartado, cuando hay advertencias y errores, se muestra la forma de corregirlos.
  • La URL no está en Google: errores de indexación: la URL contiene al menos un error grave que ha impedido su indexación. La URL, por tanto, no podrá aparecer en los resultados de búsqueda. Para poder entender el motivo y la forma de solucionarlo, podemos recurrir al informe de cobertura que se muestra en el siguiente bloque.
  • La URL no está en Google: esto quiere decir que la URL no aparece en los resultados de búsqueda, pero Google entiende que nuestra intención es exactamente esa. Es decir, esto implica que la URL no aparece pero que tampoco tenemos intención de que aparezca. Suele suceder cuando la URL tiene etiquetas noindex o canonical. Si, efectivamente, no deseamos indexarla, no tenemos que hacer nada. Si sí que es nuestra intención, deberemos entonces eliminar la señal que lo está evitando, como por ejemplo las mencionadas etiquetas.
  • La URL es una versión alternativa: la URL forma parte de un conjunto de versiones alternativas de una misma página y no es la representativa. Esto sucede cuando tenemos, por ejemplo, versiones AMP o diferentes versiones para ordenador y teléfono móvil. Salvo que queramos que ésta sea la URL representativa, no tenemos nada que hacer.

Cobertura

En esta sección encontraremos la siguiente información, relativa al proceso de indexación de la URL inspeccionada:

  • Estado: aparece junto al título de la sección. Puede que se indique que la URL en cuestión se ha incluido correctamente en el índice, o que contiene advertencias o errores, o, como tercera alternativa, que se ha excluido.
  • Detección:
    • Sitemaps: todos los sitemaps que contienen esta URL, siempre y cuando hayan sido enviados por nosotros. Es decir, únicamente se mostrarán los sitemaps enviados mediante Google Search Console o que se hayan incluido en robots.txt.
    • Página de referencia: Muestra alguna URL por la que Google haya podido descubrir esta página. Cuando no se muestra ninguna URL no implica necesariamente que no haya ninguna, sino que puede que sea, simplemente, porque la herramienta no ha podido acceder a esa información.
  • Rastreo: se nos informa sobre la última vez que el robot de Google rastreó nuestro sitio y, además, nos dice qué robot en concreto hizo el rastreo. Con esto podremos ver si ya nos han migrado a la indexación centrada en los móviles. Los dos siguientes campos nos muestran, por un lado, si permitimos el rastreo de la web, es decir, si no la tenemos bloqueada mediante robots.txt. y, por otro lado, si Google ha podido efectivamente rastrear el sitio web.
  • Indexación: se nos informa en primer lugar sobre si permitimos la indexación. Hay que diferenciar que una cosa es el rastreo, es decir, el acceso al sitio web, el cual podemos bloquear con robots.txt, y otra cosa diferente es la indexación, la cual podemos bloquear con un noindex, y que es lo que marca que nuestro sitio web puede aparecer en los resultados de búsqueda para ciertas consultas. También se nos informa sobre la URL que hemos elegido como canónica y la que Google está utilizando para este fin, que pueden ser diferente.

Podéis encontrar más detalles sobre estas cuestiones en un apartado posterior, relativo al informe de “Cobertura”.

Mejoras

Esta sección muestra posibles mejoras que Google ha detectado desde su última indexación. Esta versión indexada que se analiza, no tiene por qué coincidir con la versión publicada.

De momento únicamente muestra mejoras de usabilidad móvil y de AMP. Daremos más detalles sobre estas recomendaciones de mejora en una sección posterior de este artículo. Exactamente en el apartado informe “Mejoras”.

 

Sección “Índice”

A fecha de hoy, la sección “Índice” está formada por el informe de cobertura y por la herramienta de gestión de sitemaps.

Informe “Cobertura”

Este informe nos muestra el estado de indexación de las páginas de nuestro sitio web, así como los posibles errores que pudieran estar generando problemas de indexación.

El informe de cobertura nos categoriza nuestras páginas en cuatro secciones:

  • Error: Páginas que, por algún motivo, no pueden indexarse. Son páginas que, por tanto, no aparecerán en los resultados de Google.
  • Válidas con advertencia: Son páginas que se han indexado pero que presentan algún tipo de problema.
  • Válidas: Páginas que están indexadas en Google.
  • Excluidas: Páginas que no se han indexado pero que, probablemente, esto sea así de manera intencionada. La diferencia entre “Error” y “Excluidas” es la intención. En las páginas incluidas en “Error”, Google entiende que nuestra intención es que se indexen y nos avisa de que no se están indexando, junto con los motivos del por qué. En las páginas que aparecen en “Excluidas”, Google entiende que nuestra intención es que no se indexen. Y, de hecho, no se están indexando, pero Google nos avisa por si acaso le estuviéramos mandando el mensaje de exclusión del índice por error, de cara a que podamos corregirlo.

El informe de cobertura se divide en dos bloques. En el primer bloque se muestra el volumen de páginas que tenemos en cada una de las cuatro categorías mencionadas anteriormente.

Este primer bloque incluye también un gráfico en el que, por defecto, solo se muestra el volumen de páginas con “Error”. Para mostrar o dejar de mostrar una categoría basta con hacer clic en la misma. En el gráfico, pueden mostrarse varias categorías de manera simultanea. Este gráfico es una muestra de la evolución en el tiempo del número de páginas en cada categoría.

Observamos que, entre las métricas de páginas por categoría y el gráfico, hay una casilla, por defecto desmarcada, junto al texto “Impresiones”. Al activarla, podremos ver en el gráfico, junto con las categorías de páginas seleccionadas, la evolución del volumen de impresiones de nuestro sitio web en el buscador de Google, de tal modo que podamos valorar la relación entre el estado de indexación y la visibilidad en Google de nuestro sitio web.

Junto a la leyenda temporal del gráfico podemos ver notas de Google, las cuales están relacionadas con información relevante de cara a entender el estado de indexación. Información como, por ejemplo, actualizaciones del algoritmo usado por el buscador o errores en la validación de nuestro sitio web.

El segundo bloque de este informe es una tabla donde se muestra con mayor detalle las categorías que hayamos activado en el primer bloque, diferenciando mediante tipologías más precisas. Cada línea de esta tabla es cada una de las tipologías concretas. De cada una de ellas se nos informa del número de páginas incluidas en las mismas.

Al hacer clic en cada tipo, se nos muestran cada una de las páginas afectadas, con sus URLs y las fechas en las que recibieron su último rastreo. El límite de páginas que pueden mostrarse en esta tabla es de 1000. Al hacer clic en una página concreta, se ofrecen cuatro herramientas que nos ayudan a entender la situación de la página y que, en caso de que haya errores, nos pueden ayudar a entender los motivos. Las cuatro herramientas, que, a excepción de la última, nos llevarán a la versión anterior de Google Search Console, son las siguientes:

Páginas con “Error”

Los diferentes motivos por los que una página pueden aparecer en esta sección son los siguientes:

  • Error del servidor (5xx): Indica que hay algún problema con nuestro servidor al devolver una página. El tipo de error concreto se identifica gracias al código de respuesta HTTP, el cual, siendo un error de servidor, se caracteriza por comenzar por 5.
  • Error de redirección: Dicha URL tiene configurada una redirección que no está funcionando. Normalmente porque estamos apuntando a una URL incorrecta. Pero también puede ser porque la cadena de redirección sea demasiado larga, porque tenemos un bucle de redirecciones o porque la URL de redirección supera la longitud de URL máxima.
  • robots.txt ha bloqueado la URL enviada: hemos enviado nuestra página a Google para que la indexe pero, a la vez, la estamos bloqueando en el robots.txt. Si está bloqueada por error,  debemos corregir en el archivo robots.txt la línea que está provocando el bloqueo. Podemos ayudarnos de la herramienta “Probador de robots.txt. Si, por contra, el bloqueo es correcto, entonces debemos eliminar de nuestro sitemap la URL en cuestión, de tal modo que dejemos de pedirle a Google que indexe dicha página web. De lo que se trata es de no estar enviando dos mensajes contradictorios: no podemos, por un lado, estar pidiendo al buscador que indexe y, por otro lado, estar impidiendo que acceda.
  • La URL enviada contiene la etiqueta “noindex”: es similar a la incidencia anterior, solo que en este caso el bloqueo procede de un noindex, que es una forma de evitar que una página sea indexada por Google. Un noindex puede implementarse de dos modos: como una cabecera de respuesta HTTP o, más comúnmente, como una metaetiqueta incluida en el la sección <head> del código de nuestro sitio web:
    <meta name="robots" content="noindex">
  • La URL enviada devuelve un soft 404: indica que hemos enviado nuestra página a Google para que la indexe pero dicha página devuelve un error soft 404. Un soft 404 quiere decir que la página informa al usuario de que la página no existe, pero el código de respuesta HTTP es un código 200 (petición correcta). Varios casos.
    • Si la página web se ha movido o tiene una sustituta clara, entonces debemos realizar una redirección 301 o 302 (según el carácter temporal o permanente de la misma) hacia la nueva URL o hacia la página sustituta.
    • Si la página realmente no está disponible y no tenemos ninguna página que sea una sustituta clara, debemos devolver un código de respuesta HTTP 404 o 410. Además, debemos eliminar la URL del sitemap y todos los enlaces internos que apunten a dicha URL. Hay una excepción: si se trata de URLs que tienen enlaces externos de calidad que, lógicamente, queremos conservar. Si podemos conseguir que manualmente nos cambien dichos enlaces por una URL que no devuelva error, entonces perfecto, mantenemos la estrategia de enviar un código de respuesta HTTP de error, de eliminar la URL del sitemap y de eliminar los enlaces internos. Si no tenemos la posibilidad de conseguir que nos cambien los enlaces hacia una URL que no devuelva error, entonces el código de respuesta HTTP que debemos enviar para dicha URL es el correspondiente a una redirección. En este último caso no será imprescindible que corrijamos los links internos, aunque sería recomendable, pero sí que debemos eliminar del sitemap la URL.
  • No se ha podido encontrar la URL enviada (404): Similar al caso anterior, pero con la diferencia de que, en este caso, el código de estado HTTP es un 404 en vez de un 200.
  • La URL enviada devuelve una solicitud no autorizada (401): hemos enviado la página para indexarla, pero Google ha obtenido una respuesta 401 (no autorizada). Para solucionarlo, hay que retirar los requisitos de autorización de la página o permitir que el robot de Google acceda a nuestras páginas verificando su identidad.
  • La URL enviada tiene un problema de rastreo: indica que hemos enviado nuestra página a Google para que la indexe, pero Google ha encontrado un error de rastreo que no puede clasificarse en ninguna de las categorías anteriores. El siguiente paso sería analizar dicha página mediante la herramienta “Inspección de URLs“.

Páginas “Válidas con advertencias”

Básicamente se trata de páginas que se han indexado a pesar de que las tenemos bloqueadas mediante un robots.txt.

Hay que tener en cuenta que, lo que un archivo robots.txt hace, es solicitar a los robots, como Googlebot, que no accedan a determinadas páginas. Pero es una indicación que los robots pueden omitir y, por tanto, no es la mejor forma de evitar la indexación de una página concreta. Este es un error de concepto bastante común. Si lo que deseamos es que Google no indexe una página, entonces lo más adecuado es una etiqueta noindex, la cual comentábamos en la sección anterior.

En definitiva, las páginas aquí incluidas son páginas que hemos bloqueado en robots.txt pero que Google ha encontrado mediante enlaces en otros sitios webs. En este caso, Google no está seguro de si deseamos evitar que la página se muestre en los resultados de búsqueda o no. Por ello nos muestra esta alerta para que actuemos de acuerdo a uno de los dos siguientes modos:

  • Si queremos que la página se indexe, entonces no tiene sentido bloquearla en robots.txt.
  • Si queremos que la página no se indexe, entonces debemos añadirle una metaetiqueta noindex.

Páginas “Válidas”

Son páginas que están indexadas en Google. Sin embargo, no debe confundirnos su clasificación y el color verde con el que aparecen marcadas. Estas URLs también requieren una revisión, aunque no tan prioritaria como la de otros apartados.

En esta clasificación nos encontramos con tres tipos de páginas:

  • Enviada e indexada: le hemos pedido a Google que la añada al índice y efectivamente lo ha hecho. Aquí debemos confirmar que no haya páginas que estemos enviando al índice cuando, en realidad, las queremos dejar fuera del mismo.
  • Indexada, no enviada en Sitemap: quiere decir que Google ha encontrado esta URL, y la ha indexado, a pesar de que no la hemos incluido en el sitemap. Si efectivamente queremos que la página esté en el índice, sería aconsejable añadirla al sitemap. En caso contrario, deberíamos bloquearla mediante noindex o redireccionarla a la página adecuada.
  • Indexada; recomendamos marcarla como canónica: En este caso nos encontramos ante una página que presenta duplicidades con otras páginas de nuestro sitio web. Google ha decidido que, de entre todas las páginas duplicadas, esta es la canónica, a pesar de que no lleva un etiqueta que la identifique como tal. Si, efectivamente, esta página es la canónica de un grupo de páginas duplicadas, entonces debemos etiquetarla como tal (tanto a ella como a las duplicadas). Si, por contra, no es la canónica, entonces debemos añadir la etiqueta que identifique a su canónica.

Por si hiciera falta clarificar el concepto de URL canónica: en ocasiones, o bien hay un contenido de nuestro sitio web al que se puede acceder mediante diferentes URLs, o bien hay varias páginas que presentan un contenido muy similar, con ligeras variaciones. En estos casos, de cara a evitar problemas de contenido duplicado, es recomendable informar a Google sobre cuál es la URL representativa de entre todo ese grupo de páginas duplicadas. Dicha URL es a la que se conoce como canónica y es la que se mostrará en los resultados de búsqueda. En caso de no elegir una canónica, tendríamos varias páginas en nuestro sitio web que estarían tratando de posicionarse para la misma palabra, lo cual provocaría una canibalización que podría afectarnos negativamente en los rankings de Google. Para señalar a Google cuál es la URL canónica, lo más habitual es añadir una metaetiqueta en el código, tanto en de la página canónica como en el de las duplicadas. En el siguiente enlace podéis ampliar información sobre cómo definir una página canónica en grupos de páginas similares o duplicadas.

Páginas “Excluidas”

Como decíamos, son páginas que no se han indexado pero que, es probable que esto sea así de manera intencionada y que, por tanto, no haya ningún error en la exclusión. En muchos casos presentan las mismas incidencias que encontramos en la sección de páginas con “Error”, pero con la  diferencia de no hemos enviado dichas páginas para que Google las indexe, y que es lo que hace que Google entienda que las señales de exclusión que enviamos son correctas. Es decir, Google no encuentra señales contradictorias como sucede con las páginas con “Error”.

Comentemos otras incidencias de este apartado que no hayamos explicado ya en apartados anteriores:

  • Bloqueada por una herramienta para eliminar páginas: como propietarios de una página, tenemos la opción de impedir temporalmente que los sitios web de los que somos propietarios aparezcan en los resultados de búsqueda con la herramienta para eliminar URLs. Hay que recordar que este método de eliminación de URLs es temporal. Si queremos eliminar una URL del índice de manera permanente debemos utilizar uno de los tres siguientes métodos:
    • Eliminar el contenido de nuestro sitio web y devolver en la URL que correspondiera un código de respuesta HTTP 404 (página no encontrada) o 410 (página no disponible).
    • Bloquear el acceso al contenido. Por ejemplo, con una contraseña.
    • Mediante la metaetiqueta noindex. De los tres, este es el método que menos garantías ofrece..
  • Anomalía en el rastreo: se trata de una anomalía sin determinar. Para intentar detectar el problema, podemos probar a usar la herramienta “Explorar como Google“.
  • Descubierta: actualmente sin indexar: Google ha encontrado la página, pero todavía no la ha rastreado. Normalmente sucede porque, en el momento del rastreo, nuestro sitio web estaba sobrecargado. No debemos preocuparnos. Lo normal es que Google tenga programado un nuevo intento en el futuro.
  • Se ha puesto en cola para realizar su rastreo: no debería preocuparnos. Son páginas que no se han rastreado pero se nos informa de que se acabará haciendo. En caso de que sea una página que nos interese mucho posicionar, podemos tratar de forzar su rastreo dándole más peso mediante links internos.
  • Rastreada: actualmente sin indexar: posiblemente se trate de la incidencia más grave de esta categoría. Sucede cuando Google ha rastreado la página, pero no la ha incluido en el índice. En este caso lo más probable es que sea debido a problemas de calidad de nuestra página.
  • Se ha retirado la página por una reclamación legal: la página se ha retirado del índice a causa de una reclamación legal.
  • Retirada por motivos no especificados: a diferencia de la mayoría de página de esta sección, se trata de páginas que hemos enviado a Google para que las indexe. Sin embargo, tras un período en el que efectivamente han estado indexadas, dichas páginas se han retirado del índice por motivos sin determinar. Complicado actuar sobre ellas ante la falta de información.

Para el resto de apartado ya mencionados, si encontramos páginas donde es un error que estén excluidas del índice, entonces debemos eliminar las señales de exclusión e incluir dichas páginas en el sitemap. También podemos solicitar a Google que indexe la página mediante la herramienta “Inspección de URLs”.

Otras consideraciones sobre el informe de cobertura

En primer lugar, al analizar los datos de este informe, debemos fijarnos en la fecha de última actualización, la cual se encuentra en la parte superior derecha del informe.

La segunda consideración es que podemos filtrar los datos del informe mediante un desplegable en la parte superior izquierda del mismo. Ese filtro permite mostrar los resultados de indexación según los siguientes valores:

  • Todas las páginas conocidas (predeterminado): se muestran todas las URL que ha descubierto Google, independientemente del método.
  • Todas las páginas enviadas: se muestran solo las páginas que se han enviado mediante sitemaps, ya sea con Search Console, archivos robots.txtpings de sitemap.
  • URL de un sitemap concreto: se muestran solo las URL de un sitemap determinado que se haya enviado mediante Search Console. Si se trata de un índice de sitemaps, se muestran las URL de todos los sitemaps incluidos.

En tercer lugar, en este informe también tenemos la posibilidad de compartir los detalles de un problema con otros usuarios. Para ello. una vez que hayamos profundizado en una tipología de incidencia, aparecerá en la parte superior derecha un botón para compartir. Una vez pulsado, debemos habilitar la posibilidad de compartir mediante enlace. Tras hacerlo, obtenemos un enlace que será el que dé acceso a terceros al contenido. Las personas que obtengan el enlace solo pueden acceder a esta página y a las páginas de los historiales de validación del problema en cuestión. Con el enlace no se puede acceder a otras páginas de tu recurso ni se permite al usuario compartido realizar ninguna acción en tu propiedad o cuenta. Puedes revocar el acceso a la página en cualquier momento inhabilitando su uso compartido. Esta opción de compartir está presente en varios de los informes de Google Search Console.

Por último, cabe mencionar que el informe “Errores de rastreo”, presente únicamente en la versión anterior de Google Search Console, desaparecerá durante el primer trimestre de 2019, junto con su API, siendo reemplazado por completo por este informe de “Cobertura”

Informe “Sitemaps”

Antes de analizar las opciones que ofrece este informe, respondamos algunas preguntas habituales sobre los sitemaps.

¿Qué es un sitemap?

Un sitemap es un archivo que incluye un listado de las páginas, los vídeos y otros archivos de nuestro sitio web. También incluye la relaciones entre dichos archivos. El objetivo del sitemap es ayudar a los buscadores (como Google, entre otros) a rastrear nuestro sitio web de manera eficaz. Los sitemaps, en el caso de las páginas, pueden incluir datos importantes como cuándo se actualizaron por última vez, cada cuánto se modifican y si existen versiones en otros idiomas.

¿Necesito un sitemap?

Un sitemap no es imprescindible. Si nuestro sitio está correctamente estructurado, por lo general Google no tiene problemas para rastrearlo y no tendremos ninguna penalización por no disponer de un sitemap. Sin embargo, es recomendable configurarlo en el caso de sitios web muy grandes o en aquellos de muy reciente lanzamiento. También supone una buena ayuda para que Google rastree aquellas páginas que tienen una profundidad de enlace elevada. Es decir, aquellas páginas en las que hacen falta varios clics para poder llegar hasta ella.

Por otro lado, en contra de lo que mucha gente piensa, incluir una URL en un sitemap no garantiza su indexación. El sitemap es una ayuda que Google puede aceptar o no. La decisión final sobre la indexación siempre quedará supeditada a su algoritmo. Para conocer los motivos por los que una URL no ha sido indexada disponemos del informe de cobertura, ya comentado en esta guía.

¿Cómo creo y envío a Google un sitemap?

Los sitemaps deben crearse siguiendo el protocolo de sitemap estándar. Podemos crearlos manualmente o mediante herramientas de terceros. Una vez creados, pueden enviarse a Google mediante tres métodos:

  • Enviarlo mediante Search Console, como veremos a continuación.
  • Insertar la siguiente línea en cualquier parte de nuestros archivo robots.txt, pero cambiando, como es lógico, la ruta del sitemap por la correcta.
    Sitemap: https://luismarketingonline.es/sitemap_index.xml
  • Solicitar que Google rastree nuesro sitemap mediante la función ping, enviando una solicitud HTTP GET de la siguiente manera:
    http://www.google.com/ping?sitemap=<URL_completa_del_sitemap>

    Por ejemplo:

    http://www.google.com/ping?sitemap=https://luismarketingonline.es/sitemap_index.xml

La limitación que Google impone a dichos sitemaps, además de las cuestiones propias del formato, son dos:

  • Que su tamaño sin comprimir no sea superior a 50 MB,
  • Que su número de URLs no sea superior a 50.000.

En caso de no poder evitar estas restricciones, la solución es dividir el sitemap en varios sitemaps de menor tamaño.

¿Qué podemos hacer con el informe “Sitemaps”?

Una vez tenemos claro todo lo relativo a los sitemps, toca ver qué posibilidades ofrecer Google Search Console. Básicamente tenemos dos opciones:

  • Enviar nuevos sitemaps para que  Google los rastree.
  • Conocer el estado de procesamiento de los sitemaps previamente enviados mediante Google Search Console.

Veamos ambas opciones a continuación.

Añadir un sitemap nuevo

La opción para enviar un nuevo sitemap aparece totalmente visible en la parte superior de este informe. Simplemente debemos introducir la ruta del mismo en el siguiente formulario.

Información sobre sitemaps enviados

En esta zona podremos ver información sobre los sitemaps que, previamente, hayamos enviado a Google Search Console mediante el método anterior.

Google Search Console - Sitemaps enviados

Tal y como vemos en la captura anterior, de cada sitemap se nos muestra la siguiente información: la ruta del sitemap, el tipo (puede ser un índice de sitemaps, es decir, una agrupación de varios sitemaps, o un sitemap específico), la fecha en que fue enviado, la fecha en que por última vez fue leído por Google, el estado (si es correcto o presenta errores) y el recuento de URLs descubiertas gracias a dicho sitemap. Además, mediante un icono de un gráfico de barras, tendremos un enlace directo al informe de cobertura con el filtro de sitemap aplicado. Es decir, mostrando información relativa únicamente a las URLs incluidas en este sitemap.

En caso de que haya errores en el sitemap, Google Search Console nos informará de ello y nos dará detalles sobre el error.

Un error bastante habitual es “El sitemap incluye URL que el archivo robots.txt ha bloqueado”. Esta alerta salta cuando en el sitemap tenemos una URL que estamos bloqueando mediante robots.txt. Es bastante habitual cuando los sitemaps se generan de manera automática, lo que puede provocar que se incluyan URLs que no nos interesan y que, por ello, hayamos bloqueado en robots.txt. La solución pasa por, o bien quitar la URL del sitemap, o bien eliminar el bloque en robots.txt, según si estamos interesados o no en la indexación de dicha URL.

Otros errores habituales son, por un lado, el error de formato de sitemap (es decir, que no cumple el protocolo de sitemap estándar) y, por otro lado, el incluir URLs que presentan errores de tipo 4xx (página no disponible) o 5xx (error de servidor). En este último caso, si el error es “correcto”, es decir, si es normal que suceda y va a seguir sucediendo, entonces debemos eliminar la URL del sitemap.

Por último, sobre este informe, hay que recordar que en la versión anterior de Google Search Console sigue activo la versión antigua del informe de sitemaps. Sin embargo, se espera que, antes de finales de 2019, este informe desaparezca, dando por completo el relevo a este nuevo informe de sitemaps.

Sección “Mejoras”

Informe “Usabilidad móvil”

Este informe nos avisa sobre qué páginas de nuestro sitio web tienen problemas de usabilidad cuando son cargadas desde dispositivos móviles. En la parte superior derecha podemos consultar la fecha de última actualización de los datos del informe.

Google Search Console - Usabilidad móvil

El gráfico muestra el número de páginas en estado de error o en estado válido, según tu selección. La casilla Impresiones muestra las impresiones de la página de tu sitio web desde dispositivos móviles.

Este informe resulta un poco confuso y puede llevar a malas interpretaciones por una cuestión: El estado de validación no depende de que haya un error o no en la página. El estado de validación será “error” cuando la página, en su conjunto, tenga un índice de usabilidad móvil por debajo del mínimo que Google considera aceptable. Del mismo modo, una página cuyo estado sea “válido”, implica que su índice de usabilidad móvil está por encima del mínimo exigido por Google, pero no implica que no tenga errores.

Que una página figure como “válido” no quiere decir que no tenga errores, puede tenerlos, pero en este caso, debido al estado de validación, Google no los va a mostrar. Solo va a mostrar los errores de aquellas páginas que catalogue con estado de validación “error”. Es decir, solo va a mostrar los errores de aquellas páginas no optimizadas suficientemente para dispositivos móviles.

Además, las páginas en estado “válido” tampoco se incluyen en el recuento de páginas afectadas por alguno de los problemas que pudieran tener. No es solo que no se muestren sus errores, sino que además tampoco se agregan al recuento.

Otra elemento relacionado con todo esto, y que añade mayor confusión si cabe, es que, la fecha en la que Google Search Console dice que encontró un error por primera vez, no tiene por qué ser correcta. En verdad, esta fecha es la fecha en la que apareció un error que haya provocado que la página cambie su estado de validación de “válido” a “error”.

Pongamos un ejemplo que ayude a entender lo anterior: tenemos una página catalogada como “válida” pero que presenta un error de usabilidad móvil detectado el día 4 de enero de 2019. Dicho error no es lo suficientemente importante por lo que, a pesar de dicho error, la página obtiene una calificación “válida” en lo referido a usabilidad móvil.

El 15 de enero de 2019, Google rastrea la misma página y detecta que, por un lado, el error anteriormente detectado sigue presente, y, por otro lado, ha aparecido un nuevo error que, en este caso, hace que la calificación de usabilidad móvil baje por debajo del mínimo aceptado por Google. En ese momento, a fecha de 15 de enero de 2019, la página cambiará su estado de validación de “válida” a “error”. Desde entonces, para ambos errores, la fecha que aparecerá en el campo “fecha en que se detectó el error por primera vez” será la misma: 15 de enero de 2019, la fecha en que se detectó el segundo error y que fue cuando la página paso a un estado de “error”. Será en ese momento también cuando la página se agregue al recuento de cada uno de los errores en los que incurre.

Los errores que solemos encontrar en este informe son los siguientes:

  • El contenido es más ancho que la pantalla: para solucionarlo, debemos asegurarnos de ajustar el contenido de la ventana a la visualización.
  • El texto es demasiado pequeño para leerlo: para solventar este error, hay que optimizar el texto para la lectura.
  • Los elementos en los que se puede hacer clic están demasiado cerca unos de otros.
  • Utiliza complementos incompatibles: como, por ejemplo, el denostado Flash, que ya no es compatible con la mayor parte de los navegadores para móviles.
  • Errores relacionados con la etiqueta viewport, la cual, junto con las hojas de estilo CSS, será la base para un diseño web adaptable y apropiado para dispositivos móviles.

Al hacer clic en un error concreto, Google nos facilitará los detalles del mismo, entre los que se incluyen una lista de ejemplo de las páginas afectadas, información sobre cómo solucionarlo y un botón para que solicitemos una nueva validación del error, una vez que lo hayamos corregido.

Si, una vez dentro de la sección de uno de los errores, hacemos clic en una de las páginas afectadas, entonces aparecerá en el lateral derecho el link “probar página publicada”, el cual mostrará el veredicto de la herramienta “Prueba de optimización para móviles” sobre la página en cuestión.

 

Informe “AMP”

¿Qué es AMP?

AMP, acrónimo en inglés de Accelerated Mobile Pages, es una iniciativa de código abierto, impulsada por Google, que tiene como foco el desarrollo de páginas web extremadamente ligeras, de tal modo que ofrezcan una buena experiencia de navegación desde dispositivos móviles. En todo caso, no es solo una cuestión del peso de los sitios web. AMP tiene como principio ofrecer una experiencia de usuario excelente y la velocidad es sólo una parte de eso.

Aunque se puede desarrollar un sitio web exclusivamente con tecnología AMP, el uso habitual que se le está dando hoy en día es disponer de versiones alternativas de nuestras páginas en formato AMP, de tal modo que sean éstas las que se muestren en los resultados de Google para dispositivos móviles. En este caso, para evitar problemas de contenido duplicado, debemos informar a Google mediante etiquetas de la relación entre dos páginas, una AMP y otra no AMP, siendo ambas versiones alternativas de un mismo contenido.

Para ello, en el <head> del código de la página no AMP debemos añadir una etiqueta de tipo <link> que informe de su versión alternativa en formato AMP. Lo haremos del siguiente modo:

<link rel="amphtml" href="https://www.example.com/url/to/amp/document.html">

Y en la página AMP haremos la jugada inversa con una etiqueta canonical. Del siguiente modo:

<link rel="canonical" href="https://www.example.com/url/to/full/document.html">

El aspecto de una página en formato en AMP es muy básico, con muy pocos elementos y un diseño muy simple y limpio. El problema de estas páginas es que, la eliminación de ciertos elementos, puede complicar que cumplamos los objetivos que tengamos fijados en dichas páginas. También puede provocar que ciertas herramientas o etiquetas de nuestra sitio web no funcionen correctamente.

Informe de AMP en Search Console

El informe de AMP pretende facilitar la corrección de errores, de tal modo que nuestras páginas en formato AMP puedan aparecer con funciones específicas de AMP en los resultados de búsqueda de Google.

Las páginas en AMP pueden presentar tres estados diferentes en el informe de AMP de Google Search Console:

  • Error: páginas que, por sus problemas, no pueden mostrarse como resultados de búsqueda AMP.
  • Válidas con advertencias: sí que se muestran en los resultados de búsqueda con su versión en AMP, pero presentan algunos problemas que convendría solucionar.
  • Válidas: no presentan ningún problema. Se trata de páginas AMP perfectamente válidas.

Al hacer clic en un error o advertencia, Google nos facilitará detalles más  precisos, entre los que se incluyen una lista de ejemplo de las páginas afectadas, información sobre cómo solucionarlo y un botón para que solicitemos una nueva validación del error o advertencia, una vez que lo hayamos corregido.

Si hacemos clic en una página concreta de las que presentan errores o advertencias, en el lateral derecho del informe se abrirá un panel donde se muestra tanto la URL en formato AMP, como su versión canónica, si la hubiera. Debajo, se mostrará la parte del código donde se encuentra el error. Y, por último, al final de este panel latera, un enlace a la herramienta “Inspección de URLs“.

 

Sección “Seguridad y Acciones manuales”

Acciones manuales

¿Qué es una acción manual?

Google aplica acciones manuales a sitios web cuando un revisor humano de Google determina que algunas páginas de los sitios web no cumplen las directrices de calidad para webmasters de Google. Sí, Google no solo se sirve de robots para analizar los sitios web, sino que también cuenta con personas en dicho análisis.

La mayoría de las acciones manuales son consecuencia de intentos de manipular el índice de búsqueda de Google de una manera no permitida por el buscador. Es decir, suelen afectar a sitios web que han sido descubiertos usando técnicas de posicionamiento SEO conocidas como black hat. Aquellas técnicas al margen de la “ley” impuesta por Google y recogida en sus directrices.

El informe de “Acciones manuales”

Este informe nos muestra, por un lado, si se han aplicado acciones manuales a tu sitio web, y, por otro lado, nuestro historial de acciones manuales.

Está bastante claro que cuanto más vacía esté esta página mejor. Si no hemos estado haciendo cosas “raras”, es bastante poco probable que nos aplique una acción manual y, en consecuencia, en este informe solo veremos un símbolo de check verde junto con la frase “No se ha detectado ningún problema”.

¿Y que pasa si hemos sido malos y nos han pillado? Pues que nos habrán castigado con una acción manual, que es lo mismo que decir una penalización. Podremos consultar los detalles al respecto en este informe. En concreto podremos saber:

  • Cuántas acciones manuales se han aplicado a nuestro sitio web.
  • Qué páginas están afectadas por la acción manual. Puede que la acción manual solo afecte a una parte del sitio web o, por contra, que afecte a todo nuestro sitio web. Si esto último es tu caso, estoy deseando qué me cuentes en los comentarios qué has hecho para merecer tanto odio por parte de Google. En este sección, cuando solo afecta a una parte del sitio web, pueden agruparse páginas que cumplan un patrón. Esto no quiere decir que todas las páginas que cumplan dicho patrón están penalizadas. Lo que significa simplemente es que todas las páginas penalizadas cumplen ese patrón.
  • Cuáles son los problemas en las páginas afectadas y su descripción. Los problemas suelen tener que ver con enlaces artificiales, contenido fraudulento, encubrimiento, redirecciones engañosas, exceso de palabras clave, spam, etc.

Una vez que hayas corregido todos los problemas que se detallan en el informe, puedes solicitar a Google una reconsideración. Algo así como un “lo siento, me he equivocado, no volverá a ocurrir”. La solicitud de reconsideración debe cumplir tres requisitos:

  • Debe explicar con precisión cuál es el problema de calidad del sitio web.
  • Debe detallar qué acciones se han ejecutado para arreglar el problema.
  • Debe documentarse el resultado de las soluciones.

Las solicitudes de reconsideración pueden obtener respuesta en un plazo que va desde unos pocos días hasta un par de semanas. No seas pesado ni enfades a Google: no envíes otra solicitud antes de obtener una decisión final sobre la solicitud pendiente.

El historial de acciones manuales de este informe recopila notificaciones de acciones manuales, solicitudes de revisión y resultados de revisiones. El historial se conserva durante al menos un año. Incluso, aunque el sitio web cambie de propietario.

 

Problemas de seguridad

Este informe indica si nuestro sitio web puede haberse visto comprometido desde el punto de vista de la seguridad, bien porque ha sido pirateado, bien porque estamos utilizando algún tipo de software malicioso. Este informe debería estar vacío.

 

Informe “Enlaces”

Este informe se divide en dos secciones, con diferentes subsecciones:

  • Enlaces externos
    • Páginas más enlazadas: páginas de nuestra propiedad enlazadas desde páginas externas.
    • Sitios web con más enlaces: dominios externos con mayor número de enlaces totales hacia nuestro sitio web.
    • Texto de enlace más frecuente: en este caso no se muestra el volumen de cada texto ancla (aquel texto que se utiliza para enlazar a un sitio web) sino simplemente una ordenación de mayor a menor de dichos textos.
  • Enlaces internos
    • Páginas más enlazadas: muestra una lista ordenada de la cantidad de enlaces internos que reciben cada una de las páginas de nuestro sitio web.

Personalmente, este sea posiblemente el informe más flojo de Google Search Console, y no porque no ofrezca información útil, sino porque se queda muy corto en comparación con otras herramientas SEO de valoración y análisis de enlaces. Es un informe que no profundiza lo suficiente como para provocar decisiones. Es decir, ofrece información interesante, pero poco accionable.

¿Qué se echa en falta?

Hay algunos datos que, si bien es bastante complicado que Google facilitara, resultan importantes para un buen estudio del perfil de enlaces. Cuestiones como las siguientes:

  • Diferenciación entre enlaces follow (simplificándolo en exceso, son aquellos que transmiten autoridad) y enlaces nofollow (aquellos que no transmiten autoridad).
  • Algún tipo de métrica que muestre la autoridad del dominio y de las páginas que nos enlazan, de cara a evaluar la calidad de los enlaces. Algunas herramientas disponen, incluso, de un spam score, que nos ayuda a detectar enlaces perjudiciales para que podamos desautorizar dichos enlaces. Es decir, informar a Google de que no queremos que tenga en cuenta ciertos enlaces que apuntan a nuestro sitio web.
  • La profundidad de los enlaces internos, es decir, cuántos clics internos hacen falta para llegar a cada una de nuestras páginas. De tal modo que podamos comprender mejor qué estructura tenemos en nuestro sitio web y a qué páginas le estamos dando más peso mediante dicha jerarquía.
  • El volumen de textos ancla y hacia que páginas apuntan.
  • Menciones en dominios externos a nuestros términos de marca, de tal modo que podamos solicitar que nos añadan un link.
  • Evolución histórica de nuestras métricas de enlaces.
  • Qué links se han perdido y qué links se han ganado.

Otro detalle que nos desconcertará, es que el número de enlaces que muestra Google, no suele coincidir con los enlaces mostrados por otras herramientas.

En este informe, lo más destacado y accionable, para mi, es conocer el volumen de links internos de cada página. Hay que tener en cuenta que, el cómo configuremos y repartamos nuestros links internos, condiciona sobre la importancia que damos a entender que tiene cada página y, por tanto, condiciona el posicionamiento de las mismas en los resultados de Google. Como ya hemos comentado anteriormente, tenemos la posibilidad de mejorar el posicionamiento SEO simplemente con la optimización de los links internos.

 

Configuración

En esta sección podemos acceder a la configuración de la propiedad actual y realizar los siguientes ajustes:

Verificación de la propiedad

Podemos comprobar si la propiedad está correctamente verificada y, en caso afirmativo, se nos mostrará qué métodos de verificación se han utilizado.

En caso de que la propiedad no esté verificada, se nos facilitarán diferentes alternativas para poder verificarla. Verificar una propiedad es el proceso mediante el cual demostramos que somos los propietarios de un sitio web o que tenemos permisos para su gestión y configuración. Hay varios métodos de verificación:

  • Subir un archivo HTML al directorio raíz del sitio web que queramos verificar.
  • Añadir una etiqueta HTML en el código del sitio web que queramos verificar.
  • Mediante el código de seguimiento de Google Analytics.
  • Mediante el fragmento de contenedor de Google Tag Manager.
  • Mediante el proveedor de nombres de dominio, editando la configuración de DNS.

Para cada método de verificación, Google Search Console nos ofrece información detallad paso a paso de cómo proceder a la misma.

Usuarios y permisos

Nos muestra qué usuarios (identificados con su nombre y dirección de email) tienen permisos sobre la propiedad, así como el tipo de permiso que tienen concedido.

También podemos añadir desde aquí nuevos usuarios. Para ello debemos indicar la dirección de email del nuevo usuario (que debe ser una cuenta de Google) y debemos configurar el tipo de permiso a conceder. Hay tres tipos de permisos: propietario, completo y restringido. Las diferencias entre todos ellos se muestran en la siguiente captura de pantalla.

Google Search Console - Detalle de los permisos

En verdad, además, hay dos tipos de usuarios propietarios: verificados y delegados. Si bien, en este informe, ambos aparecen catalogados como, simplemente, “propietarios”. Los propietarios verificados son aquellos que han demostrado que la propiedad es suya con alguno de los métodos de verificación anteriores. Los propietarios delegados son aquellos que han sido recibido los permisos de propietario de un propietario verificado.

Toda propiedad debe tener un propietario verificado. Para añadir propietarios delegados, no nos servirá el botón “añadir usuario” que figura en la parte superior derecha de esta sección. Mediante ese botón únicamente podemos, a día de hoy, añadir usuarios con permisos “completo” o “restringido”.

Para añadir un propietario delegado, debemos hacer clic en los 3 puntos verticales situados a la derecha del usuario propietario. Aparecerá un link a la herramienta de administración de propietarios de la antigua versión de Google Search Console. Allí, debajo de la lista de usuarios verificados, podremos ver el botón “Añadir un propietario”. Desde esta herramienta antigua también podremos anular la verificación y eliminar propietarios delegados. Antes de finales de marzo de 2019, se espera que todas estas funcionalidades se incorporen a la nueva versión de Google Search Console.

Una vez un usuario es añadido, éste debe aceptar la invitación. Si un propietario verificado pierde su verificación, los propietarios delegados también pierden su acceso a la propiedad.

 

Volviendo a la versión anterior de Search Console

Hay ciertas herramientas e informes que todavía no se ha migrado a la nueva versión. Para poder acceder a ellas, podemos volver a la antigua versión de Search Console haciendo clic en la parte inferior izquierda de la herramienta, en el enlace “Ir a la versión anterior”.

Repasemos a continuación todos los informes y herramientas que todavía no se han migrado.

Datos estructurados

Los datos estructurados son un formato estandarizado para proporcionar información sobre una página y ayudar a los buscadores como Google a entender y clasificar su contenido. Los datos estructurados pueden ser utilizados para mejorar la presencia de un sitio web en los resultados de búsqueda.

Los datos estructurados etiquetan el contenido de un sitio web para especificar claramente que cada fragmento de texto etiquetado representa un tipo de datos determinado (por ejemplo, el nombre de un restaurante, una dirección o una puntuación). Esto puede realizarse con lenguaje schema.org o con formatos tales como Microdatos y RDF.

Gracias a los datos estructurados, Google puede ofrecer resultados de búsqueda enriquecidos, que son aquellos que incluyen elementos extra: valoraciones, ruta de navegación, vídeo, listado de eventos, etc. Con ello, el resultado de búsqueda es más atractivo y se mejora la experiencia del usuario. Desde el propio buscador, el usuario tendrá más elementos para encontrar lo que exactamente estaba buscando y, además, tendrá más posibilidades de llegar de una manera directa a lo que busca, sin clics intermedios.

Resultados de búsqueda enriquecidos

El informe de datos estructurados de Google Search Console, muestra los datos enriquecidos que Google ha podido detectar en nuestro sitio web. También facilita información sobre errores en el marcado de datos, que pueden estar impidiendo que se muestren fragmentos enriquecidos en los resultados de búsqueda.

Se encuentra dentro de la sección “Aparición en búsquedas”, a la que accedemos desde el menú lateral izquierdo de Google Search Console. Este informe está siendo sustituido por los “Informes de estados de resultados enriquecidos” de la nueva versión de Google Search Console.

 

Marcador de datos

Esta herramienta permite etiquetar el contenido del mismo modo que comentábamos con los datos estructurados. Pero en vez de marcar el contenido en el propio código de nuestro sitio web, lo hacemos a través de esta herramienta de Google.

Podemos ejecutar la herramienta tanto para una página individual, como para un conjunto de páginas con un patrón común.

El enlace a la herramienta está dentro de la sección “Aparición en búsquedas”, a la que accedemos desde el menú lateral izquierdo de Google Search Console. El funcionamiento es el siguiente:

  1. Introducimos la URL en la que queremos realizar el marcado de datos.
  2. Seleccionamos si queremos aplicar el marcado solo a esa página o también a otras similares.
  3. Seleccionamos el tipo de dato de entre aplicaciones de software, artículos de noticias, empresas locales, episodios de TV, eventos, películas, productos, reseñas de libros y restaurantes.
  4. Aparecerá una previsualización de nuestra página. En ella, si seleccionamos con el ratón un texto determinado, podremos informar sobre a qué dato concreto se refiere ese texto. Por ejemplo, si hemos seleccionado en el punto 3 “empresas locales” y en este apartado hemos seleccionado con el ratón el nombre de nuestro negocio, se abrirá un desplegable en el que podremos elegir entre nombre, dirección, teléfono, etc. En este caso hacemos clic en “nombre”, dado que el dato que tenemos seleccionado corresponde al nombre de nuestro negocio local.
  5. Una vez que hayamos terminado de marcar todos los datos que deseemos, pulsamos en el botón “publicar”, en la parte superior derecha de la página. Si en el punto 2 hemos elegido aplicar el marcado a páginas similares, entonces el botón tendrá como texto “listo”, y el proceso no habrá acabado. Quedarán los puntos 6 y 7.
  6. Aparecerá un cuadro para que fijemos un patrón para determinar un conjunto de páginas similares.
  7. Posteriormente podremos añadir más datos, revisar y, finalmente, publicar.

El marcado de datos que configuremos con esta herramienta, aparecerá en esta sección de Google Search Console y podrá ser consultado, modificado y eliminado.

Personalmente, no recomendaría este método para realizar el marcado de datos, salvo que seamos propietarios de un sitio web con un volumen muy reducido de páginas y tengamos muchas dificultades para poder acceder al código. El problema de este método es que dicho marcado no está visible para otros motores de búsqueda y robots, solo para Google, y, ante cambios en la herramienta, podemos perder estos datos. Resulta más apropiado el marcado mediante datos estructurados en el código.

 

Mejoras de HTML

Este informe nos alerta sobre posibles incidencias en código HTML de nuestro sitio web, las cuales han sido detectadas por el robot de Google durante su proceso de rastreo e indexación. Para acceder a este informe podemos hacerlo desde la sección “Aparición en búsquedas”, a la que accedemos desde el menú lateral izquierdo de Google Search Console.

Estas incidencias pueden deberse tanto a errores en las metaetiquetas de título y de descripción de un página, como a ausencia de las mismas. También pueden alertar que cierto contenido de una página presenta problemas para ser indexado, como por ejemplo un determinado contenido multimedia.

Son incidencias que no impiden el rastreo e indexación de una página en su conjunto, pero que, si se tienen en cuenta, pueden incrementar el volumen de tráfico hacia nuestro site.

Esta herramienta nos será migrada a la nueva versión de Search Console y los planes de Google pasan por eliminarla antes de finales de marzo de 2019. De manera oficial, Google ha informado que las incidencias con los títulos de página son importantes, pero que, por un lado, Google ha ido mejorando en su capacidad de mostrar títulos (ignorando en ciertos casos, todo sea dicho, los títulos que le hemos dicho que queremos) y, por otro lado, Google entiende que hay un abanico suficiente de herramientas externas de calidad capaces de realizar esta tarea.

 

Informe de segmentación internacional

A este informe podemos acceder desde la sección “Tráfico de búsqueda”, situada en el menú lateral izquierdo de Google Search Console. El informe de segmentación internacional se compone de dos pestañas: idioma y país.

Pestaña “Idioma”

Permite supervisar el uso y los errores de las etiquetas hreflang en nuestro sitio web. Empecemos entendiendo qué son las etiquetas hreflang.

¿Qué son las etiquetas hreflang?

Las etiquetas hreflang, son etiquetas que añadimos en el código de nuestra página web y que permiten informar a Google, y a otros buscadores, de que tenemos un mismo contenido en varias páginas diferentes, las cuales se corresponden con las diferentes versiones según el idioma o según la orientación geográfica de las mismas.

¿Cuándo se usan la etiquetas hreflang? Ejemplos de uso

Si tenemos una página en varios idiomas, por ejemplo, español, inglés y francés, debemos informar a Google en cada una de dichas páginas sobre cuál es el idioma al que se orienta la página en concreto y, a su vez,  qué paginas son las versiones de la misma en otros idiomas.

Imaginemos además que, en relación a la página web inglesa, tenemos a su vez dos versiones, ambas en inglés, pero con la peculiaridad de que cada una de ellas se dirige a un país diferente: Reino Unido, por un lado, e Irlanda, por otro.

El contenido será muy similar en ambos casos, y estará en el mismo idioma en ambas páginas, pero habrá matices, como por ejemplo la moneda de los precios que mostremos. Mientras que en Reino Unido lo mostraremos en libras, en Irlanda lo mostraremos en euros.

También puede haber diferencias en el uso del lenguaje, en ciertas expresiones, en la foto que ilustre el contenido, etc. Todo ello hará que tengamos dos URLs distintas, una para el Reino Unido y otra para Irlanda, de cara a poder mostrar las mencionadas diferencias.

Gracias a la etiqueta hreflang, también podremos informar de a qué países o regiones se orienta una página y, además, de cuáles son sus versiones con una orientación geográfica alternativa.

El objetivo de informar a Google de todo ello, orientación geográfica e idioma, es, por un lado, que comprenda mejor nuestro sitio web y, por otro lado y más importante todavía, que en los resultados de búsqueda muestre el enlace más apropiado según el usuario que realiza la búsqueda.

Ya que tenemos una versión de una página optimizada para nuestros potenciales clientes de Irlanda, sería una lástima que el buscador dirigiera al usuario a un versión para el Reino Unido, con el precio en libras y una foto del Big Ben de Londres, o, peor aún, hacia una versión en un idioma que el potencial cliente puede no dominar, como el español.

¿Cómo se envían las etiquetas hreflang?

Las etiquetas hreflang pueden enviarse mediante etiquetas HTML, encabezados HTTP o mediante sitemap, tal y como explica Google en su ayuda. Para ampliar información sobre este tema, incluyendo un mayor detalle sobre el uso etiqueta hreflang, también podéis consultar el artículo SEO internacional: claves del posicionamiento en otros países e idiomas.

¿Qué información ofrece las pestaña “Idioma” de Google Search Console?

Por tanto, volviendo a la pestaña “Idioma” del “Informe de segmentación internacional” de la versión anterior de Google Search Console, aquí podremos ver todos los errores de las etiquetas hreflang que hayamos añadido a nuestro sitio web y qué páginas son las que devuelven dichos errores.

Hay dos tipos de errores:

  • No hay etiquetas de retorno: como hemos dicho, las etiquetas hreflang debe ser recíprocas. Todas las páginas que pertenezcan a un grupo de páginas con diferentes idiomas y orientaciones para un mismo contenido, deben apuntar en su código mediante hreflang al resto de páginas del grupo. En caso contrario, saltará este error
  • Código de idioma desconocido: debemos identificar el idioma en formato ISO 639-1 y la región en formato ISO 3166-1 Alpha 2. Si el código no está en dichos formatos, o si hay un error en el mismo, no será reconocido por Google.

Pestaña “País”

Desde aquí podemos definir una segmentación por país de destino para todo el sitio web recogido en la propiedad. Es decir, podemos informar a Google de que nuestro sitio se orienta a usuarios de un país concreto.

La configuración de esta pestaña depende del dominio de nivel superior de nuestro sitio web. El dominio de nivel superior es la extensión de nuestro dominio, es decir, si es .com, .es, .org, etc.

Si nuestro sitio web tiene un dominio de nivel superior con un código de país, como .es (España), .de (Alemania) o .fr (Francia), Google lo asociará a dicha región y no podremos cambiar nada en esta sección.

Si nuestro dominio de nivel superior es genérico, tipo .com o .org, desde esta pestaña podremos definir el país al que nos orientamos, marcando la casilla “segmentación geográfica” y seleccionando el país de segmentación. Si queremos que no se asocie nuestro sitio web a ningún país concreto, entonces debemos seleccionar “Ninguno” en la lista desplegable.

Si queremos orientar diferentes directorios de nuestro sitio a diferentes países, debemos añadir varias propiedades a Google Search Console, cada una con la versión del directorio a la que corresponden.

Por ejemplo, si tenemos un directorio de primer nivel que diferencia entre /uk/, /ie/ y /usa/, donde cada uno de dichos directorios se orientan, respectivamente, a usuarios de Reino Unido, Irlanda y Estados Unidos, y queremos hacer notar dicha diferencia a Google, además de la configuración de hreflang anteriormente mencionada, podríamos crear las tres siguientes propiedades en Google Search Console:

  • https://tusitio.com/uk/
  • https://tusitio.com/ie/
  • https://tusitio.com/usa/

Posteriormente, en cada propiedad, configuraremos la segmentación geográfica tal y como hemos detallado.

 

Recursos bloqueados

Este informe se encuentra dentro de la sección “Índice de Google”. Muestra recursos de nuestro sitio web a los que el robot de Google no ha podido acceder, lo cual podría estar provocando errores en el procesamiento e indexación de nuestro sitio web, afectando negativamente a nuestro posicionamiento en el buscador de Google.

Únicamente se muestran aquellos recursos que Google entiende que están bajo nuestro control y que, por tanto, son bloqueos que podemos evitar. Sin embargo, en ocasiones encontramos en esta listado errores de acceso a recursos de terceros, los cuales utilizamos en nuestro sitio web, pero sobre los que no podemos actuar.

Entre los hosts de la lista de errores de este informe, puede que veamos hosts que no son de nuestra propiedad. Esto es normal, dado que en nuestro sitio web podemos estar utilizando recursos de otro host.

Si hacemos clic sobre un host determinado, podremos ver un listado de los recursos bloqueados. Es decir, aquellos a los que el robot de Google no ha podido acceder. Repasa la lista y empieza con aquellos que puedan afectar al contenido y al diseño de forma significativa. No merece la pena ocuparse de los recursos menos importantes, como los píxeles de seguimiento o los contadores de visitas.

En el caso de recursos bloqueados de terceros, sobre los que no tengamos el control, pero que tengan un impacto visual importante, deberíamos ponernos en contacto con dichos sitios web para pedirles que concedan acceso al robot de Google a los recursos mencionados. Si esto no es posible, o no conseguimos que habiliten el recurso, entonces, desde el punto de vista SEO, sería recomendable buscar un recurso alternativo.

Si hacemos clic sobre cualquiera de los recursos bloqueados, veremos el listado de páginas que están “llamando” a dicho recurso. Si hacemos clic en la página, se nos mostrará información sobre cómo resolver el bloqueo y se nos ofrecerá varios links a otras herramientas de Google Search Console que resultan interesantes para esta incidencia, como “Explorar como Google” y “Herramienta de pruebas de robots.txt

Antes de finales de marzo de 2019, esta herramienta desaparecerá y será integrada por completo dentro de Inspección de URLs.

Eliminar URLs

Desde esta herramienta, como propietarios de un sitio web, tenemos la opción de impedir temporalmente que nuestras páginas aparezcan en los resultados de búsqueda. Hay que remarcar que esta acción tiene un carácter temporal. Si lo que queremos es bloquear a Google definitivamente para que nunca pueda acceder a nuestro sitio, entonces debemos acudir a otros mecanismos:

  • Bloquear URLs, directorios o el sitio web completo mediante el archivo robots.txt.
  • Bloquear URLs, directorios o el sitio web completo mediante contraseña de los archivos de los servidores web.
  • Bloquear individualmente cada URL mediante el uso de metaetiquetas noindex. En este caso se permite el acceso al robot pero se indica que no indexe el contenido.

La herramienta “Eliminar URLs” se incluye en la sección “Índice de Google” de Search Console. Desde aquí podremos realizar las solicitudes de eliminación temporal y tener acceso al histórico de uso de la herramienta.

 

Estadísticas de rastreo

Este informe aparece dentro de la sección “rastreo”. Se refiere a las estadísticas del rastreo, realizado por parte del robot d Google, en nuestro sitio web durante los últimos 90 días.

No hay valores correctos o incorrectos, depende de cada sitio. Más que en lo anterior, debemos usar este informe fijándonos en la evolución a lo largo del tiempo y en los cambios bruscos, que es lo que nos dará pistas sobre errores, incidencias o éxitos. Es decir, debemos tratar de entender cómo nos visita el robot de Google, cómo cambia su comportamiento y, si vemos algo que nos parezca raro, investigar por qué.

Las estadísticas se muestran en tres gráficos con la evolución en el tiempo de las siguientes métricas:

  • Páginas rastreadas al día.
  • Kilobytes descargados al día: la cantidad de información que Google rastrea de nuestro sitio web.
  • Tiempo de descarga de una página en milisegundos.

Junto a los gráficos, a su derecha, podemos ver los valores medios de nuestro sitio web, así como los picos máximos y mínimos. Es normal que en el gráfico haya altibajos constantes. No deberíamos asustarnos por eso, siempre y cuando los valores fluctúen en torno a un valor medio y dichos altibajos no sean excesivamente bruscos. La evolución en el tiempo de las tres gráficas debería ser similar.

¿Qué podría estar provocando variaciones significativas en las estadísticas de rastreo?

  • Cambios en el robots.txt, que tengan como consecuencia el bloqueo por primera vez un conjunto de páginas o, viceversa, el acceso a un conjunto de páginas previamente bloqueadas.
  • HTML roto o contenidos no compatibles.
  • Problemas con el servidor. Si nuestro sitio web tarda en responder a las solicitudes del robot de Google, éste irá reduciendo el volumen de solicitudes con el tiempo. Lo mismo sucederá si tenemos errores de servidor.
  • Tener contenido de poca calidad o que cambia con poca frecuencia. Esto puede hacer que el robot de Google vaya perdiendo el interés en nuestro sitio web y cada vez nos visite menos.
  • Que hayamos eliminado o añadido un volumen significativo de páginas a nuestro sitio web.
  • Que haya aparecido un bloque de contenido “enterrado”. Es decir, que hayamos modificado nuestra estructura interna de enlaces de tal forma que, contenido hasta la fecha desconocido por Google, haya salido a la luz.
  • Mejoras o disminuciones sustanciales en la autoridad de nuestro dominio.

Si por algún motivo, como por ejemplo un servidor sobrecargado, necesitamos limitar la frecuencia de rastreo del robot de Google, podemos hacerlo desde esta versión anterior de Google Search Console. Hacemos clic en la rueda dentada situada en la parte superior derecha de la herramienta. En el desplegable, hacemos clic en “configuración del sitio”. Ahí, encontraremos un segundo bloque donde podemos elegir entre:

  • Permitir que Google se optimice para mi sitio (recomendado).
  • Limitar la frecuencia de rastreo máxima de Google.

Explorar como Google

Esta herramienta nos permite probar cómo Google rastrea e indexa cualquiera de nuestras páginas web. En concreto nos ofrece la siguiente información :

  • El estado del procesamiento solicitado: si se ha completado con éxito (ya sea parcialmente o de manera total), si ha habido errores o si la URL tiene alguna redirección.
  • Respuesta HTTP descargada por Google: el código HTTP tal y como lo ha visto el robot de Google.
  • Representación visual de cómo el robot de Google ha visto la página.
  • Representación visual de cómo un visitante del sitio web habría visto la página.
  • Listado de recursos de la página a los que no ha podido acceder el robot Google, junto con el tipo de recurso, el motivo de los problemas de acceso y la gravedad de dicho problema.

Además, desde esta zona podremos solicitar a Google que vuelva a rastrear e indexar nuestra página o, en caso de que nunca lo hubiera hecho, que lo haga por primera vez.

La herramienta se encuentra dentro de la sección “Rastreo”. Para utilizarla, debemos elegir la URL que queremos explorar y el tipo de robot que hará la exploración (versión de ordenador o versión móvil).

Google Search Console - Exporar como Google

Podemos realizar esta exploración de dos modos:

  • Obtener: se obtiene una URL especificada del sitio web y se muestra la respuesta HTTP. No requiere ni ejecuta recursos asociados en la página, como imágenes o secuencias de comandos. Esta operación es relativamente rápida. Podemos utilizarla para comprobar o depurar la conectividad de redes dudosas o problemas de seguridad del sitio web. También para ver si la solicitud se completa satisfactoriamente o da error.
  • Obtener y procesar: se explora una URL especificada del sitio web, se muestra la respuesta HTTP y también se procesa la página de acuerdo con la plataforma especificada (ordenador o teléfono móvil). Con esta operación se solicitan y ejecutan todos los recursos de la página (como imágenes y secuencias de comandos). Podemos utilizarla para detectar diferencias visuales entre la forma en que el robot de Google ve nuestra página y la forma en que lo hace un usuario.

Todas las páginas exploradas con esta herramienta, se muestran en un listado a continuación del bloque anterior. Haciendo clic en cada una de dichas páginas, se accede al informe con los resultados de la exploración. Al pasar el ratón por encima de cada página, antes de hacer clic, aparecerá un botón para solicitar la indexación.

Una consideración importante sobre esta herramienta: el número de exploraciones diarias que pueden realizarse es limitado.

 

Probador de robots.txt

Esta herramienta se encuentra dentro de la sección “Rastreo”. Nos permite comprobar si cualquiera de los robots de Google tiene bloqueado, mediante nuestro archivo robots.txt, el acceso a una página concreta.

Esta herramienta nos muestra nuestro archivo robots.txt, tal y como Google lo tiene registrado, así como la fecha en que por última vez consultó este archivo. Puede que la versión actual del archivo difiera de la registrada por Google. Desde aquí tenemos la posibilidad de pedir a Google que actualice su versión de nuestro archivo robots.txt.

Esta herramienta también nos avisará de errores y advertencias sobre el archivo robots.txt.

En la parte inferior, tras la versión de nuestro robots.txt,  hay un cuadro de texto donde podemos introducir una URL sobre la que queramos realizar la prueba. Si lo dejamos en blanco, el análisis lo realizará sobre la home. A la derecha del cuadro de texto debemos identificar el robot que queremos probar. El más habitual es Googlebot, pero hay otros robots para otros usos específicos.

Tras hacer clic en el botón “probar”, éste se volverá verde, y cambiará su texto por “Permitido”, cuando no haya ningún bloqueo sobre dicha URL. Si, por el contrario, se vuelve rojo y el texto cambia a “Bloqueado”, entonces significa que no estamos permitiendo a Google acceder a dicha página. En este último caso, además, se marcará en rojo la línea del archivo robots.txt que, en concreto, está bloqueando el acceso.

Una advertencia. Esta herramienta no muestra bloqueos a los recursos usados por una página concreta, sino simplemente bloqueos a la página en sí. Si lo que querremos es comprobar si hay ciertos elementos de una página que están siendo bloqueados, entonces debemos usar la herramienta “Explorar como Google“.

 

Parámetros de URL

Esta herramienta se encuentra dentro de la sección “Rastreo”. Nos permite evitar problemas de contenido duplicado generado por los parámetros de URL. Empecemos entendiendo qué son los parámetros de URL y por qué generan problemas de contenido duplicado. Después veremos cómo gestionar esto en la herramienta.

¿Qué son los parámetros de URL y cómo afectan al SEO?

Tal y como explicábamos en un artículo antiguo sobre cómo sacarle partido a Google Webmaster Tools, los parámetros de URL son información que se añade a las URLs y que no tienen por qué provocar necesariamente el cambio de contenido de la misma. Añadir parámetros a una URL, aunque dirijan en la práctica a la misma página, y con el mismo contenido, hace que Google lo considere URLs diferentes, con la posibilidad de que lo identifique como contenido duplicado. Esto puede afectar negativamente a nuestros rankings en Google.

Para entenderlo mejor, pongamos un ejemplo con una URL ficticia:

www.chaquetas.com/chaquetas-de-mujer.php?orderby=price&page=2&utm_source=Google&utm_medium=cpc

El símbolo de interrogación (?) define el inicio de los parámetros en una URL. El símbolo et (&), por su parte, define cada uno de los parámetros adicionales.

En el ejemplo, orderby es un parámetro que indica cómo deben ordenarse los productos al mostrarse al usuario. En el ejemplo, el valor del parámetro nos indica que la ordenación seleccionada es por precio (el valor de orderby es price).

Siguiendo con el ejemplo, el parámetro page indica el número de página en la que nos encontramos. Es decir, es un parámetro que indica que los resultados se muestran en varias páginas, y determina que el contenido que debe mostrarse es el correspondiente a la página 2 (page=2). Esta URL, con este parámetro, nos dirige a la segunda página del catálogo de chaquetas de mujer.

Los dos últimos parámetros a analizar en el ejemplo son utm_source y utm_medium. Son parámetros estándar, propios de Google Analytics, y que nos identifican la fuente y el medio que ha enviado la visita a la URL del ejemplo. En este caso, los valores de ambos parámetros nos indican que la visita vino de una campaña de Google Ads (ya que los valores de los parámetros son fuente Google y medio cpc).

Imaginemos que en la URL de ejemplo cambiamos únicamente el valor del parámetro utm_source. Cambiamos el valor “Google” por “Bing”, lo que nos indica que en, este caso, la visita procede de una campaña de Bing Ads. La URL quedaría del siguiente modo:

www.chaquetas.com/chaquetas-de-mujer.php?orderby=price&page=2&utm_source=Bing&utm_medium=cpc

Esta nueva URL tendrá exactamente el mismo contenido que la anterior. Y es que, en verdad, podríamos considerar que es la misma URL, ya que lo único que cambia es que desde nuestra herramienta de analítica detectaremos una fuente de tráfico diferente. Sin embargo, Google lo ve como dos URLs diferentes con un mismo contenido, es decir, Google detecta contenido duplicado en dos URLs diferentes.

¿Cómo configurar los parámetros de URL en Google Search Console?

Esto lo podemos solucionar desde la opción apuntada de Google Search Console. En el caso de los parámetros utm_source y utm_medium, informaremos que es un parámetro que no cambia el contenido, seleccionado, como vemos en la captura siguiente, la opción “No, no influye en el contenido de la página”.

Opciones Parámetros de URL

Sin embargo, el parámetro page de la URL de ejemplo sí que modifica el contenido. El contenido de la página 2 no es el mismo que el de la página 1. En este caso, deberíamos seleccionar la opción “Sí, cambia, reordena o restringe el contenido de la página”. Con esta opción, debemos informar, además, del modo en que cambia el contenido. En nuestro ejemplo, para el parámetro page, seleccionaríamos “Pagina el contenido”.

Cofniguración Parámetros de URL

En caso de duda con algún parámetro, ante la pregunta de si debe o no indexarse un contenido, lo recomendable es marcar la opción “Dejar que el robot de Google decida”.

 

Configuración de Search Console

Dentro de la anterior de Google Search Console, tenemos acceso a opciones de configuración todavía no disponibles en la nueva versión.

  • Preferencias de Search Console: nos permite habilitar las notificaciones vía email.
  • Configuración del sitio: dos opciones dentro de este apartado.
    • Nos permite limitar la frecuencia de rastreo: tal y como hemos explicado en el informe de “Estadísticas de rastreo“, podemos querer limitar el volumen de solicitudes que el robot de Google realiza a nuestro sitio.
    • Nos permite establecer nuestro dominio preferido: el dominio preferido es el que queremos que se utilice para indexar las páginas de muestro sitio web, eligiendo entre la versión con www. o sin ella. Esta decisión debe ser coherente con la optimización del sitio web y las señales que indican a Google cuál es el dominio preferido: etiquetas canónicas, hreflang, redirecciones, etc.
  • Cambio de dirección: herramienta para informar a Google de que estamos trasladando nuestro sitio web a un nuevo dominio.
  • Propiedad de Google Analytics: permite habilitar los datos de Search Console en una propiedad concreta de Google Analytics, de tal modo que en ciertos informes de Google Analytics se utilice información obtenida de Search Console.
  • Usuarios y propietarios de la propiedad: permite gestionar los usuarios y propietarios, tal y como hemos explicado anteriormente en el informe “Usuarios y permisos” de la nueva versión de Search Console.
  • Detalles de la verificación: informa de cómo hemos verificado nuestra propiedad sobre el sitio web, el historial de intentos de verificación y los propietarios verificados. Además, podremos añadir y quitar propietarios.

 

Y hasta aquí este completo repaso a todas las herramientas e informes de Google Search Console. ¿Te ha resultado de utilidad esta guía? ¿Te ha ayudado a sacar mejor partido a la herramienta y, con ello, a optimizar tu sitio web? Entonces puedes apoyarme compartiendo esta guía en redes sociales. ¡Muchas gracias de antemano!