Auditoria Seo Profesional

Por Juan Carlos Chico Blazquez

¿Qué es una auditoría SEO profesional?

Conocemos como auditoría SEO profesional a un conjunto de pruebas técnicas realizadas sobre una web para conocer su estado general en referencia a la situación que tendría que tener para una excelente optimización SEO y, por lo tanto, un buen posicionamiento en buscados de sus palabras clave.

Pero no solo eso, debemos llevar a cabo un análisis DAFO, el cual nos permitira conocer la situacón actual de una empresa para que podamos diseñar una estrategia ganadora. Así como saber priorizar y realizar todas aquellas cuestiones que puedan tener un mayor impacto a nivel orgánico y en la cuenta de resultados de nuestro clientes.

¿Qué partes debe tener una auditoría SEO profesional?

  • Conocimiento de negocio
  • Conocimiento de la competencia
  • Conocer los productos o servicios
  • Fase de research en Google
  • Auditoría SEO Técnica on-page
  • Auditoría Seo Off-page

Aspectos generales de una auditoría Seo On -page

Para poder realizar una auditoría seo profesional con garantias necesitamos entender el funcionamiento básico de Google.

Rastreo por Google

Para rastrear internet Google utiliza robots (arañas) que rastrean las información cuando visitando una web, enlaces que contiene, imagenes, contenido, arquitectura.

Indexación y Crawleo

Una de las primeras comprobaciones que realizamos sobre una web es comprobar su estado de indexación en Google, es decir, verificamos que el buscador ha añadido las urls de la web su índice. Para su comprobación:

  • Escribimos en la barra de direcciones la url de la web con el comando site: site:seoprofesional.org los resultados nos dirá cuántas URLs se han indexado Google.
  • Tambien debemos comprobar las URLs indexadas en Google Search Console (estado de indexación)
  • Finalmente, rastrearemos la web con algun programa como Screaming Frog o ahrefs

Siempre debemos de hacer estas 3 comprobaciones para disponer de varias fuentes que nos digan el total de URLs indexadas de la web.

Con esta comprobación, conoceremos cuántas URLs queremos posicionar en este proyecto, cuántas ya han sido indexadas por Google, si tenemos o no contenido duplicado que lastre el proyecto...

Códigos de Respuesta del servidor

Para poder realizar la auditoria Seo profesional vamos a ver el resultado ejecutado del rastreo con Screaming Frog, o cualquier otro programa similar, debemos de analizar la información sobre los códigos de respuesta que arrojan las distintas URLs, en función de si el crawl, actuando como lo haría el bot de Google.

Los códigos de respuesta más habituales son:

  • 200: OK. Respuesta de servidor correcta.
  • 3xx: Redirecciones. Hace referencia a un recurso que ha sido movido, tanto de forma temporal como permanente.Hay una redirección.
    • 301 : redirección permanentemente. Indica al motor de búsqueda que el contenido de la URL se ha sido movido de forma permanente a otra URL.
    • 302 : redirección temporal. El contenido de la pagina se muestra en otra URL de forma temporal.
  • 4xx: códigos de error. Se muestra este código cuando la información que se ha pedido al servidor no se encuentra.
    • 404: no encontrado. Error 404 es el código de estado que indica que la url a la que se quiere acceder no existe o se ha perdido, error tipico de enlace roto por eliminación de la pagina web, imagen o documentos.
    • 403: Acceso denegado. El crawl no puede acceder a la URL.
  • 5xx: Errores de servidor. Se refieren a situaciones en las que el servidor no puede ejecutar la petición de información.
    • 501 : no implementado. No soporta las funcionalidades necesarias para responder a la solicitud de información.
    • 502 : Puerta de enlace no válida. El servidor, ha recibido una respuesta inválida de otro servidor.
    • 503 : Servicio no Disponible. No se puede responder a la petición de información de una forma temporal

Contenido Duplicado

Otra de las tareas de un experto Seo es comprobar el contenido duplicado es uno de los errores que más aparecen en una auditoría seo profesional y es un tipo de penalizaciones Seo y afecta al posicionamiento de una web. Cuando tenemos contenido duplicado la araña o robot de google lo valora negativamente.

Datos estructurados Microformatos / Rich Snippets

Los microformatos o datos estructurados común, también conocidos como Rich Snippets, es una iniciativa creada entre los principales buscadores y crear un estándar mediante un lenguaje como para los robots o arañas que les permitan cuando pasen por una web obtener pistas sobre el contenido la web. Gracias a la iniciativa Schema.org , los webmasters indicar instrucciones a las arañas de google o buscadores.

Para que funcionen los microformatos deben:

  • Una buena implementados
  • Estar adaptados dentro de la temática de la web
  • Para que los resultados tengan peso en las posiciones es necesario que el dominio de la web tenga autoridad.

Los tipos de datos estructurados más utilizados

¿Cómo se implementan microformatos o Rich Snippets?

Si queremos implementar los Rich Snippets o datos estructurados en nuestra web, podemos pedirle al programador de la misma que realice un desarrollo específico en plantilla de CMS. Si es un WordPress, es más sencillo , ya que existen varios pluggins que podemos instalar para implementar los datos estructurados de forma sencilla.

Algunos de los plugin más conocidos son WP Rich Snippets, Schema App Structured Data o All In One Schema.org Rich Snippets.

Una vez que hayamos acabado de mplementar los microformatos, es necesario efectuar una validación para comprobar que funcionan correctamente, lo podemos comprobar mediante la herramienta de pruebas de Google Search Console que analiza el código de la web.

Velocidad de carga de una web

¿Tu web carga en menos de 3 segundos? . Este es otra de las palancas que debe de cumplir una web y que un buen consultor debe de analizar en una auditoria Seo profesional

La velocidad de la web y el rendimiento es importante para Google como para el usuario ya que con una carga lenta de la web conseguiremos que los usuarios abandonen la navegación y estaremos incrementando el rebote de nuestra web asi como conseguir una posible penalización de google en nuestra posiciones Seo.

Cuanto menor sea el tiempo en que cargue nuestra web, más buena será la experiencia de navegación del usuario, obtendremos una mayor frecuencia de rastreo de Google al poder rastrear con mayor velocidad.

¿Cómo puedo medir la velocidad actual de mi web?

Hay varias herramientas para ayudarte gratuitas como GTmetrix, la herramienta de Google PageSpeed Insights, o Webpagetest.

Sitemap y Robots

En todo proyectos SEO es necesarios configurar estos dos archivos para indicarle a Google todas nuestras páginas y donde no queremos que pase la araña o robot de Google.

El sitemap, este se trata de un archivo XML donde contiene todas las páginas que conforman la web.

En este archivo sólo deberían aparecer las páginas que queremos indexe google y que contengan el código 200.

Podemos realizar otras optimizaciones en nuestro sitemap como:

  • En caso de tener un web con muchas URLs, podemos dividir el sitemap por secciones como : categorías, artículos, productos, etc.
  • En caso de tener una web multiidioma, podemos crear varios sitemps para cada idioma.

Respecto al archivo robots.txt, en éste definimos qué partes de nuestro site queremos que rastree o bloqueos. Mediante la orden que se llama Disallow, podemos bloquear esas secciones que no queremos que la araña rastree.

Si queremos comprobar el archivo de robots.txt, podemos acceder a él desde cualquier página web poniendo la siguiente dirección de URL: midominio.com/robots.txt

Meta Etiquetas

Toda la información que muestra Google cuando hacemos una busqueda son meta etiquetas. Es muy importante que las meta etiquetas estan bien construidas ya que tiene un peso en las posiciones y sobre todo es lo que ve el usuario cuando busca por ello deben de ser atractivas para conseguir un mayor CTR. La mejor manera de indicar el contenido de las paginas es incluir estas etiquetas HTML, las más importantes son la etiqueta title y la meta etiqueta description.

Aqui tienes recomendaciones para crear estas etiquetas:

Para los meta títulos:

  • El título siempre debe ser único, y no duplicarse en otras páginas.
  • Debe incluir la palabra clave siempre, y lo ideal es al principio del texto.
  • El tamaño del title no debe superar los 65 caracteres.

Para las meta etiquetas de descripciones:

  • Únicas por cada pagina y no deberían repetirse en más de 1 página.
  • Debe incluir la palabra clave y una descripción atractiva para el usuario
  • Deben incluir una llamada a la acción para aumentar el CTR.
  • El tamaño de la descripción no debe superar los 155 caracteres.

Imágenes

¿Cómo informamos a Google del contenido de una imagen?

Con la etiqueta llamada ALT podremos asignar una descripción acorde a la imagen y poner en la misma las keywords que tenemos como objetivo.

Aspectos generales de una auditoría Seo Off -page

Todos los enlaces que recibimos de otras webs son muy importantes en nuestra estrategia SEO, ya que Google interpreta estos enlaces, llamados backlinks, como relevancia y popularidad de nuestra web.

Lo ideal es conseguir una buena cantidad de enlaces entrantes de calidad, hacia nuestra web, con ello estamos aumentando a nuestro sitio web de autoridad.

Algunas recomendaciones para cuidar nuestros enlaces. Eso significa tener en cuenta una serie de factores:

  • Estos enlaces han de ser de calidad, nunca podrán spam o enlaces toxicos
  • Los webs externas desde donde recibimos enlaces, en su mayoria deben de ser relacionados con nuestra temática.
  • Deben añadirse de forma natural, siempre con contenido de valor
  • La localización de estos enlaces debería ser del mismo país donde estás trabajando la web.
  • Debe haber un mix y un porcentaje como enlaces follow, y deberían destinarse hacia la página de inicio.
  • Una buena estrategia pasa por tener diferentes dominios como los acabados en "edu" o "es" para España
  • Una estrategia de linkbuilding debe realizarse de forma gradual

Autoridad de dominio

Si trabajamos un estrategia adecuada de enlaces internos y logramos tener un buen crecimiento en cuanto a enlaces externos conseguiremos aumentar esa autoridad de nuestro dominio.

Si trabajamos todos lo factores que hemos mencionado, conseguiremos que nuestro sitio web obtenga suficiente autoridad y tu página web aumente el volumen de las visitas orgánicas.