Revista Ebusiness

Curso SEO – Posicionamiento natural en buscadores

Por Desamark

Domina los fundamentos básicos del SEO (Search Engine Optimization). 2016 ha sido un año de grandes cambios en el algoritmo de Google. Aprende qué hay detrás de una buena estrategia SEO actual, incluyendo el keyword planning, la optimización del contenido, el link building, los marcadores semánticos, el SEO para Ecommerce, la búsqueda local y la estrategia para móviles.

Presentación del curso Descripción de curso

El alumno aprenderá los fundamentos del SEO y, en concreto, cómo funciona Google, los últimos cambios en el algoritmo de ordenación de los resultados, qué factores (tanto dentro como fuera de la web) afectan al orden de los resultados y qué herramientas pueden serle de utilidad para mejorar su estrategia y obtener mejores resultados. En definitiva, se trata de un curso de introducción al posicionamiento natural en buscadores que capacita al alumno para poder situar el contenido de su sitio web entre las primeras posiciones de las páginas de resultados de Google, sin necesidad de pagar a este buscador, simplemente optimizando su página, creando una estrategia de creación de enlaces de calidad y utilizando las nuevas herramientas de marcado semántico.

Posicionamiento y buscadores

Veremos una visión general de los fundamentos del SEO: su importancia, cómo funciona, cómo sabe un buscador que existe mi sitio web y cómo lee el contenido. A medida que avancemos, y para el final de este módulo, seremos capaces de definir y aplicar los conceptos elementales del SEO.

Introducción al SEO

¿Cómo funciona el posicionamiento natural en buscadores? Posicionamiento natural en buscadores o SEO: Search Engine Optimization. Los buscadores son la principal herramienta de marketing pues prácticamente todo el mundo utiliza como página de inicio un buscador. En Europa, lo normal es utilizar Google pero en otras partes del mundo utilizan otros buscadores y también los utilizan como página de inicio. Para situarnos, pensemos que años atrás las páginas de inicio que utilizabamos eran las de nuestras empresas: el sitio web corporativo. Sin embargo, llevamos más de diez años en los que los buscadores son la puerta principal de entrada a navegar por Internet, por lo que si no apareces en ellos será difícil que la gente te encuentre. ¿Qué veremos en este curso? ● ¿Cómo se indexan las páginas web en un buscador? ● ¿Como son los algoritmos que ordenan los resultados de una búsqueda? (nos centraremos sobre todo en el algoritmo de Google) ● ¿Qué errores debemos evitar? ● Algunos trucos que nos ayudarán a mejorar la posición ● ¿Qué herramientas nos ayudarán a medir las variables que forman parte del algoritmo? ¿En qué consiste el curso? En general es un curso completo de SEO, de posicionamiento natural en buscadores, dividido en varias secciones que en principio deberías ir siguiendo vídeo a vídeo de forma correlativa. Esto no quiere decir que en algún momento, si te interesa más el SEO internacional vayas a SEO internacional o si te interesa más alguna parte del algoritmo puedas ir allí y leer esa parte. El curso está pensado para que lo leas o vayas oyendo, o lo veas, de forma secuencial.

¿Cómo es una página de resultados de Google? Para entenderlo mejor, te aconsejamos que vayas a Google y sigas los siguientes pasos: Vamos a buscar por ejemplo: hotel en Barcelona y aquí tenemos una primer página de resultados con la que trabajar. ● Primero vemos la búsqueda que hemos realizado: hotel en Barcelona. Un menú nos aparece con aproximadamente 95 millones de resultados en 0,65 segundos. (Esto de momento no nos va a servir para nada, el número de resultados sí, ya veremos más adelante para qué nos interesa a nivel de SEO.) ● Luego, tenemos la zona con anuncios. Esto no es SEO, no es posicionamiento natural, esto es lo que llamamos: SEM (Search Engine Marketing). Son anuncios publicitarios en los que las empresas pagan por cada clic a su sitio web. Hay que tener en cuenta que en algunos países se llama al SEM se le llama SEA: "search engine advertising"; pero normalmente en castellano se llama marketing en buscadores porque se entiende que marketing y publicidad son lo mismo. Evidentemente, no son lo mismo, pero el vocabulario normal de SEO es diferenciar las dos técnicas entre SEO y SEM. ● Seguimos bajando, observamos el mapa y vemos los resultados. Este es un servicio de Google que se llama Google Maps y que depende de otro servicio que se llama Google my Business y que veremos cuando trabajemos posicionamiento local. En ese momento lo veremos con más profundidad y aprenderemos cómo funciona y cómo darnos de alta en este servicio. ● Sigamos bajando, aquí encontramos el primer resultado natural, en este caso booking.com que indica que dispone de 2.197 hoteles en Barcelona. Este es el primer resultado SEO, el primer resultado natural. Vamos a hacer otra búsqueda para ver diferentes opciones de página. Por ejemplo: si busco "comprar Iphone 6", observa, que el resultado es diferente. Me aparecen dos anuncios, aquí arriba más anuncios, y aquí al lado más. Observa que esta parte no aparecía en la búsqueda anterior. ● ¿Qué es esta parte? esto es un servicio de Google llamado Google Shopping. Para hacer aparecer tus productos aquí, hay que darse de alta y obtener lo que se llama un "merchant account" y entonces ya puedes conectar tu comercio electrónico con este servicio de Google. Es un servicio de pago, obviamente. Se trata de otro formato publicitario de Google.

Nota: si tu comercio electrónico está creado con WooCommerce o con uno de los CMS tipo Magento o Prestashop, todos estos gestores de contenido de comercio electrónico suelen tener un plugin que conecta automáticamente con Google Shopping. Es fácil ver aparecer los resultados de tu sitio web en esta zona de Google si dispones de un comercio electrónico. Observa ahora que algunos de los resultados SEO incluyen los precios del producto y si están en stock o no. ● ¿Cómo conseguimos que los precios aparezcan aquí? Estos resultados forman parte de lo que llamamos la Web semántica y los marcadores semánticos (lo veremos más adelante). ● Seguimos con la búsqueda: vamos viendo más resultados en este día, tenemos estos cuatro enlaces también veremos cómo se crean automáticamente y como podemos gestionarlo. ● Aquí tenemos unas estrellas de valoración todo esto lo iremos viendo a lo largo del curso. Hagamos otra búsqueda: 1. Si buscamos una empresa en concreto: por ejemplo el "Hotel Pulitzer de Barcelona". Veamos cómo aparece la página de resultados. Me aparecen anuncios del Hotel Pulitzer de Barcelona y de Booking, y luego una ficha aquí al lado esto es lo que llamamos la ficha de un rich snippet (veremos cuando tratemos también el posicionamiento local cómo se crea este tipo de ficha y cómo conseguimos que aparezca el contenido que aquí aparece, más las reseñas etcétera). 2. También vemos aquí después de los anuncios la ficha creada del hotel Pulitzer con estas seis partes destacadas (los "site links" o enlaces de sitio) que también veremos en el capítulo dedicado a Google webmasters. Otro ejemplo: la búsqueda de un billete de avión vuelo a Madrid y veremos otro tipo de resultados. 1. Otro servicio de Google es el "plane finder": es un comparador de precios de billetes de avión. 2. Consejo: Ve a Google y haz diferentes tipos de búsqueda. Lo importante es que sepas identificar cada zona, pues en este curso lo que vamos a hacer es centrarnos en el SEO, no en las búsquedas locales aunque si que vamos a ver cómo salir en un mapa de Google Maps, pero el resto va a estar centrado en cómo aparecer en los primeros resultados naturales.

El Inbound Marketing y el SEO

Es el marketing dedicado a traer tráfico a un sitio Web o sea el marketing dedicado a atraer usuarios y visitas hacia alguna parte. ¿Qué vamos a ver? Lo que vamos a ver es como el SEO se enmarca dentro de las estrategias de Inbound Marketing de una empresa. En el marketing digital tenemos unas técnicas básicas: ● Tenemos técnicas para atraer visitas a un sitio Web, son algunas de las que podemos ver ahora en pantalla. ● Técnicas para convertir esas visitas en clientes o contactos, depende de si la página Web es transaccional o no. ● Técnicas para fidelizarlas y desarrollarlas como clientes. El SEO se encuentra entre las técnicas para atraer tráfico a un sitio Web pero no es la única. Sí es la más importante; aproximadamente entre un 65 y 70 por ciento del tráfico de un sitio Web suele venir de los buscadores y concretamente de Google, así que realmente para la atracción de visitas a un sitio Web es importante, pero no sólo es importante para eso, sino que veremos como además de ser la principal técnica para traer tráfico a un sitio Web, es la principal técnica que nos va a traer ventas, también, al sitio Web. Las técnicas para atraer tráfico a un sitio web son las siguientes: ● El SEO y Google my Business, que forma parte del posicionamiento local. ● El SEM o search engine marketing que es el posicionamiento de pago, en Google este servicio se llama Google Adwords.

1 ● Los mercados online, muy importante en Internet estar en el máximo posible de mercados y también es muy buena técnica de comercio exterior. Cuando debamos atacar el mercado de un país, una buena estrategia es mirar qué mercados operan en ese país, e inmediatamente darnos de alta en los mercados y publicar allí nuestros productos. ● El email marketing es una técnica también muy interesante a nivel de atracción de público hacia un sitio Web. ● Las relaciones públicas en prensa y en blogs. ● La presencia en redes sociales también es una técnica muy importante. ● Los programas de afiliación también nos interesan para conseguir visitas y ventas. Caso Google Analytics de un recurso turístico Vamos a entrar en el Google Analytics de una empresa y vamos a observar si las visitas vienen o no de Google, y si esas visitas compran o no compran. Veámoslo, lo que tenemos ahora en pantalla es el Google Analytics de un mes de un recurso turístico situado en Barcelona que vende tickets online para que la gente visite ese recurso. Observamos que está alrededor de las 90 mil visitas al mes y que si vamos a adquisición canales, el tráfico viene principalmente de búsqueda orgánica: 56.000 sesiones. O sea 56 mil visitas vienen de Google, 17.000 vienen directas, 9.400 vienen de referrals (referrals son páginas web que contienen enlaces que van hacía el sitio Web en cuestión), 2.900 vienen de redes sociales, mil cuatrocientas vienen de búsquedas pagadas, mil trescientas del e-mail marketing, 249 de anuncios pagados pero en la red de display de Google y otros, 35. Pero como ya he comentado, este sitio Web vende online o sea que no tenemos por qué conformarnos con saber cuántas visitas tiene, sino que podemos saber, por origen, cuánto hemos facturado desde cada una de estas fuentes de entrada. Para ver la facturación del sitio web iremos a la parte superior de Google Analytics y clicaremos en comercio electrónico. Aquí podremos analizar la facturación por fuente de entrada del tráfico. Observamos, pues, si ordeno por facturación, es decir por ingresos, que la fuente principal de ingresos es el Organic Search, el SEO. En la actualidad, cuando alguien quiere comprar un producto o un servicio, va a Google busca el nombre del producto, el servicio o la empresa que lo vende, y realiza la compra. Esto es así en la mayor parte de sitios Web. A veces la gente me dice oh... pero estoy todo el día haciendo promociones en Facebook: ¿Por qué no me compran desde Facebook?

Facebook no es el sitio adecuado en el que hacer promociones de venta, esto lo veremos más adelante, y además si entramos aquí, por ejemplo, en social, fíjate que en social sólo hemos facturado 6.000 euros cuando hemos facturado 120 mil, gracias al Organic Search. Si entro en social observaré además, si ordenó por Ingresos que a pesar de que Facebook es quien nos ha traído más visitas, quien nos ha traído más facturación es Naver que es una red social, un buscador mezclado de corea del sur, seguido por Tripadvisor y seguido por Facebook. Así que ni siquiera es la principal fuente de ingresos dentro de las redes sociales. El día que estábamos analizando esto con la empresa en cuestión, querían despedir al community manager decían: "es que no se gana su sueldo", no, lo que pasa es que en Facebook no hay que vender, donde hay que vender es en Google. Facebook es para establecer relaciones con nuestros clientes o con futuros clientes. Es una excelente herramienta de relaciones públicas, pero no es una herramienta de venta directa. Empezar a planificar el SEO ● ¿Qué contenidos debería publicar? ● ¿Dónde debería publicarlos? ● ¿Por que todo debo centrarlo en el sitio Web y ver los resultados en Google Analytics? Pues la estrategia que yo utilizo normalmente en todos mis trabajos de SEO, es la que llamamos: HUB & SPOKE o sea la rueda y los radios. En el centro de la rueda tenemos el sitio Web y en los radios el resto de herramientas. Claro que podemos utilizar el SEO para llevar tráfico a blogs, para llevar tráfico incluso a nuestro Facebook o a nuestro Twitter, pero debemos pensar qué dónde vamos a convertir al usuario es nuestro sitio web, de hecho lo único que es patrimonio nuestro en Internet es nuestro sitio Web. Nuestro Factbook no es nuestro, es de Mark Zuckerberg, nuestro twitter no es nuestro; lo único que realmente nuestro es el sitio Web, de ahí que no es de extrañar que utilicemos esta estrategia y que vayamos publicando contenido en todas partes pero con la intención de llevar a los usuario al sitio Web. El SEO lo vamos a concentrar también en el sitio Web, aunque del sitio Web luego se pueda ir a las redes sociales. Nuestra intención principal es atraer tráfico al sitio Web para luego convertirlo en contactos y en clientes.

3 HUB & SPOKE Es una estrategia de creación de contenidos que espero que te sea útil y que a medida que vayamos avanzando en este curso de SEO vayas centrándote en eso, en cómo ir trayendo tráfico al sitio Web desde todo el resto de ecosistema de diferentes servicios que tenemos en Internet

Los buscadores en el mundo

¿Cuántos buscadores hay y en qué países funcionan? Si hacemos una búsqueda en Google sobre: Buscadores Worldwide Vamos a encontrar un gran mapa del mundo con una lista de buscadores como Yandex, Google, Virgilio, Voila... La mitad de estos buscadores han desaparecido ya, o sea que no serviría, si seguimos buscando un poco más podemos llegar a encontrar gráficos en el que vemos las cuotas de mercados de cada buscador, éste sí que nos puede ser un poco más útil para observar la gran cuota de mercado de Google, y también para ir viendo que Baidu le sigue, detrás Yahoo, Microsoft y Yandex que son los siguientes buscadores a los que deberíamos prestar atención. Google es el principal buscador del mundo y va a seguido por Baidu, que es el buscador que utilizan en China. Tras Baidu viene Yahoo que es un buscador utilizado en muchas partes del mundo, tras él Bing, que es el de Microsoft y luego tenemos Yandex que es el buscador utilizado por los rusos. Tres recursos que pueden serte útiles a la hora de decidir en qué buscador deberías realizar el SEO 1. El primero para saber cuántas búsquedas se hacen en Google en tiempo real: Internet live stats te lo dirá. 2. Otro recurso que también puede serte útil: alexa.com 3. El tercero es Gobal Stats (gs.statcounter.com) Alexa es un sitio Web que desde el año 96 espía a la gente o sea es spyware pero además de espiar a la gente, compra datos en los ISP (Internet Service Provider), los proveedores de servicios de Internet. Con los datos que compra más la información que espía crea lo que se llama: el ranking de Alexa.

1 El ranking de Alexa lo que hace es asignar un número a cada Web del mundo. Por ejemplo, ¿cuál es la número uno del mundo?, ¿la sabes?, seguro que sí, ¿cuál es la número dos? ¿Y la número Tres?... Las encontrarás en el sitio Web de Alexa, clicando en browse top sites. Una vez dentro podemos observar como Google es el sitio Web mayor del mundo seguido por Youtube. ¿Por qué nos interesa Alexa? Pues porque tiene el botón donde pone by country. Si alguna vez estás haciendo un plan de SEO para exportación o estás trabajando en turismo y quieres atacar un mercado en concreto, digamos por ejemplo el mercado de Arabia Saudí, y no tienes ni idea por dónde navegan los árabes de Arabia Saudí, ni sabes qué buscador utilizan pues muy fácil: ● En Alexa clicas en browse top sites y una vez en esta pantalla clicas en by country. ● Y en by country buscamos Saudí Arabia y clicamos y vemos qué páginas Web utilizan los árabes. Este sitio Web es muy interesante para saber, cuándo queremos atacar el mercado de un país, que páginas Web deberíamos utilizar: 1. Para saber cuál es su buscador principal. 2. Para el resto del plan de marketing: saber dónde debemos hacer relaciones públicas, que red social debemos utilizar etcétera. La tercera herramienta que puede serte de utilidad es Global Stats: Global Stats. Statcounter Global Stats. Global Stats es muy parecido a Alexa en el sentido de que espía a la gente, compra datos y con obtiene sus estadísticas. Cuando entramos en Global Stats lo primero que encontramos es una estadística sobre el uso de los navegadores, no de los buscadores, sino navegadores. Recomendación: Entra donde pone period y selecciona all data y verás una gráfica de cómo han evolucionado los navegadores a lo largo de los últimos diez años de Internet; es súper interesante.

2 La que nos interesa ahora es la de los buscadores. Cambiamos el browser por search engine y la gráfica que nos aparece ya es la de buscadores en el mundo. Fíjate la gran diferencia de cuota de mercado de Google respecto al resto, esto es a nivel mundial. También lo encontraremos por continente. Por ejemplo: miramos en Europa y veremos la cuota de mercado de Google en Europa, que también es espectacular. La cuota de mercado de Google en Europa está alrededor de un 90%. Si vamos a hacer un plan de marketing de exportación y necesitamos hacer SEO en un país determinado buscaríamos aquí el país, clicaríamos por ejemplo para saber en Croacia qué buscador utilizan, y se nos cargaría la captura de pantalla de Croacia, o sea que con estas dos herramientas con Alexa y con Global Stats puedes decidir qué buscador utilizar en cada país. Lo normal va a ser que tengas que utilizar Google, pero podría ser como es el caso de Rusia o de China que tengas que utilizar sus propios buscadores.

El SEO local: Google My Business y Bing Places

¿Cómo aparecer cuando alguien realiza una búsqueda local? Vamos a verlo con un ejemplo: Buscar un restaurante en Vic, la ciudad en la que se encuentra nuestra Universidad. Voy a Google y escribo restaurantes en Vic y obtenemos una pantalla con los resultados, en la que podemos observar dos anuncios; en la parte superior más anuncios, en la parte lateral tenemos un mapa, con los restaurantes que aparecen en este mapa y luego tenemos en la parte inferior los primeros resultados por SEO. Tenemos Tripadvisor el primero, a mi Nube, el Tenedor... fijaros que son directorios, no son páginas Web de restaurantes. Lo que nos interesa en este momento es conocer este servicio que aparece en la parte central: Las búsquedas locales o Google local. De hecho, este servicio ha ido cambiando de nombre a lo largo del tiempo antes se llamaba local Business Center luego se llamó Google Places y ahora se llama Google my Business, o sea que para aparecer aquí debemos darnos de alta en Google My Business. Fíjate también que si clico en el nombre del restaurante me aparece toda una ficha del restaurante con las reseñas, con las fotografías, con toda la información y con el mapa. Si buscamos en Google: restaurante brasería el Caliu de Vic, que es el primero que nos aparecía, aquí al lado observamos también esta ficha, esto es lo que llamamos Rich Snippet y se crea, gracias también, a la información introducida en Google my Business.

1 ¿Cómo crear una ficha en Google my Business? Cuando creamos una ficha en Google my Business lo que hay que tener en cuenta es que en realidad lo que hace es desde nuestro Google+ crea una ficha de empresa que va a colgar de nuestro Google+. Hay que vigilar con esto, no registrarse con un nombre de empresa porque luego vamos a tener dos: el perfil de persona con un nombre de empresa, más la ficha de empresa que él va a crear en Google my Business. Debemos hacerlo desde nuestro usuario. Vamos a ver cómo podríamos hacerlo: entramos en Google y busco Google my Business, clico y estamos ya en Google my Business. Aquí podemos clicar en start now o en sign in, si clicamos en start now y estamos logineados nos va a detectar de todas maneras. Fijaros que me acaba de detectar y me marca ya el mapa de España. Dar de alta un establecimiento que no existe: Con un ejemplo como: restaurante Montserrat en Vic. Nos muestra dos restaurantes que están en Vic pero en la calle Montserrat, ninguno de éstos sería el nuestro pues aquí donde pone "none of these match are your Business" es donde deberíamos clicar y dar de alta nuestra ficha de restaurante. Como he comentado antes, se creará una página de Google+ que va a colgar de mi perfil de persona y se verá al desplegar y quedará aquí debajo. Si voy a volver atrás, ahora, hagamos otro supuesto: Imaginemos, que sí, que es este restaurante de aquí, el Crinyol restaurant rostissería, pero que yo no soy quién administra esta cuenta, sino que esta cuenta está administrada por alguien que yo no sé quién es y quiero reclamarla. Clicaría en el restaurante, en este caso me dice: to manage this business in Google verify this information. Eso quiere decir que nadie ha reclamado esta cuenta nunca, y que a pesar de que ésta dada en Google my Business, no tiene administrador.

2 Te pide autorización y te dice que autorice a Google a que yo la administre. No voy a hacerlo porque no soy la administradora, pero eso quiere decir, que nadie ha reclamado nunca esta cuenta. ¿Por qué encontramos cuentas en Google my Business que están dadas de alta pero que no son de nadie? Muy fácil, cuando Google inició este servicio en España, y también en el resto de países, compró en cada país la base de datos de páginas amarillas, y con esa base de datos creó el primer directorio de Google my Business que en ese momento no se llamaba Google my Business sino que se llamaba Local Business Center, pero los datos provienen de páginas amarillas y en este caso esta ficha de empresa no está reclamada por la propia empresa, o sea, debería la empresa acabar reclamándola. Si ya estuviera reclamada aquí nos diría: hay otro administrador que solicita que también te haga administrador a ti. Si ese fuese el caso pediríamos la solicitud y se enviaría un mail automáticamente al administrador en el que se le diría que yo también deseo ser administradora, que me autorice o no me autorice. A partir del momento en que estoy autorizado o a partir del momento en que he dado de alta el restaurante o mi establecimiento en Google my Business, puedo empezar a gestionar mi ficha y con esa ficha se va a crear el Rich snippet y también saldré en Google maps. ¿Cómo Google va a verificar si es cierto que digo que soy quién soy? Pues lo puede hacer de dos formas: 1. Llamando por teléfono al número de que salga en la ficha si ya tiene la ficha creada. 1. Enviando por correo postal una carta en la que hay un código, luego con ese código cuando yo lo reciba por correo puedo entrar ya en mi ficha de Google my Business, introducir el código y Google sabrá que he recibido la carta, y por lo tanto que es cierto que estoy en el sitio que estoy diciendo que estoy, y qué soy quien digo que soy.

3 Bing Places Cuando hablamos de búsquedas locales hay otro buscador que también nos interesa, en este caso es el que se utiliza en los iPhone y también en los móviles de Microsoft. La base de datos de Siri no es la de Google, la de Cortana, tampoco. Siri en estos momentos, en el 2016, está utilizando la base de datos de Bing. Apple de momento no tiene una base a datos propia para búsquedas locales, utiliza la de Microsoft que es la del buscador Bing. Así que si queremos que nuestro restaurante o nuestro establecimiento aparezcan entre los resultados de Siri lo que deberíamos hacer es ir a darnos de alta en Bing Places. O sea vamos a Google y buscamos Bing Places, y aquí lo encontramos. Entramos dentro y nos damos de alta; funciona exactamente igual que el Google my Business, incluso puede ser que nos encontramos que las fichas están dadas de alta porque también compraron las páginas amarillas y así lo que debemos hacer es reclamarla en lugar de entrarla de nuevo.

¿Cómo funciona la indexación en los buscadores?

Antes de empezar el SEO lo primero que deberíamos hacer es asegurarnos de que Google o el buscador que sea está leyendo bien nuestra página Web. ¿Cómo funciona esto de leer la página Web o qué quiere decir esto de indexar una página Web? Hace unos 20 años los buscadores eran bases de datos creadas por humanos, de hecho eran directorios en los que tú tenías que entrar y darte de alta, dabas de alta tu url (la dirección de tu sitio Web). Dabas de alta los Keywords por los que querías que te encontrasen: las palabras clave, el título de tu sitio Web y una breve descripción. Cuando alguien entraba en uno de estos directorios, hacia una búsqueda y en función de la palabra clave que buscase se mostraban unos resultados u otros, según si encontraba esa palabra clave en uno de los campos, la url, Keyword, title o description. Pero todo esto cambió en el año 98 cuando nació Alta Vista. Alta Vista fue el primer buscador que utilizó una tecnología completamente diferente. Empezó a utilizar la tecnología de indexación automática de páginas. ¿Cómo funciona la tecnología de indexación automática de páginas? Lo primero que hicieron los técnicos de Alta Vista fue crear un agente robot o una araña, la llamamos araña porque en inglés lo llaman spider, porque Web quiere decir tela de araña, entonces los programas que corren solos por la Web los llaman spiders y cuando lo traducimos al castellano lo llamamos araña. En realidad el nombre técnico es agente robot o robot agent. Agente, araña, robot y spider es exactamente lo mismo:

1 Un pequeño programa que corre sólo por Internet y va leyendo todo lo que encuentra. Cuando entra en un sitio Web lee el contenido y lo envía a la base de datos, vuelve aquí sigue leyendo y encuentra un enlace, pasa a través del enlace y sigue leyendo, vuelve a leer el contenido, base de datos, enlace, pasa, entra, sigue leyendo y lo lleva a la base de datos; de manera que desde el año 98 no hace falta ir a los buscadores y darse de alta, sino que ellos te encuentran, en principio. El problema es que pueden tardar un tiempo en encontrarte por eso existe la indexación express, cómo puedes estar indexado en 48 horas. Pero sin hacer nada los buscadores deberían, gracias a sus agentes robos, encontrar nuestro contenido y llevarlo a su base de datos. Lo que vamos a ver ahora es si estamos en esa base de datos y cuántas páginas de nuestro Web, de nuestra Web, han sido ya indexadas. ¿Por qué deberíamos comprobar si estamos indexados o no? 1. Pues porque por desgracia las arañas no pueden ver según qué tipo de programación; no pueden ver por ejemplo el JavaScript, si nuestro sitio Web lo ha programado una empresa o un programador acostumbrado a programar programas de escritorio es posible que haya utilizado JavaScript para hacer los enlaces. Si este es el caso, las arañas no los verán, entonces entrarán en nuestro sitio Web, leerán la página de inicio pero no van a ver ninguno de los enlaces que llevan hacia el interior. Así que hay que evitar JavaScript al menos de la parte de enlaces. 2. Tampoco ven las pop up porque para hacer una pop up, una ventanita que se abre sin el navegador de arriba, hay que hacerlo en JavaScript, entonces muchas veces programamos sitios Web en los que vemos todas un listado de productos, por ejemplo, y que cuando clicas un producto, se abre una ventanita con la foto del producto y la descripción del producto pues eso, no va a ser visto por Google y por lo tanto la descripción de nuestros productos no se va a encontrar en este sitio Web. 3. El Flash, por suerte ya casi nadie programa sitios Web en Flash, no se indexa bien en los buscadores. Google es capaz de leer la página de inicio y algo de contenido, pero no va a ver todo el árbol de contenidos con lo cual todo el directorio o sea un catálogo de productos o información sobre quiénes somos, qué hacemos etcétera, eso no lo va a ver; hay que evitar los sitios Web en flash. En la actualidad se utiliza html5 y no hay ningún problema de indexación. 4. Algunos botones no funcionan, sobre todo cuando tenemos páginas Web con mucho contenido y tenemos botón en un listado, botón de página 1, página 2 página 3, "ver más"; ese "ver más" algunas veces no se indexa ¿por qué? Porque está escrito en JavaScript de nuevo o sea que vigilad con JavaScript. 5. Detrás de un login y password tampoco podemos hacer pasar a una araña, porque el sitio Web le pregunta el login y ella no sabe qué poner y se va.

2 que muchas veces la gente programa extranets, o sea como una intranet externa, pero sin que sea vea el resto, sin que se vean los productos. Entonces las arañas tampoco van a ver esos productos y por lo tanto esos productos no van a estar indexados en Google, por eso es importante que vigilemos si algo se indexa o no. ¿Cómo podemos saber si nuestro sitio Web está indexado y cuántas páginas tiene indexadas y cuáles son? Vamos a verlo ahora mismo nos vamos a Google y buscaremos lo siguiente: Primero, para saber si nuestra universidad está indexada teclearíamos: site:uvic.cat Nota: Es muy importante que no incluyamos espacios entre los dos puntos y el nombre de la universidad y tampoco las www. Clicamos y nos dice que tenemos 255.000 resultados aproximadamente y nos sale un anuncio de Google webmasters, si sale este anuncio es que lo hemos hecho bien pues Google cree que eres un webmaster y piensa: "vamos a ver si se registra en lo que se llama Google search console", que es como se llamaba antes Google webmasters. Vamos a interpretar esto, si hemos buscado: site:UVIC.cat Saldrán 250.000 resultados y nos muestra los resultados. Estas son las páginas de la Universidad de Vic que Google tiene indexadas, y si quiero ver la fecha de la última vez que una araña la vio: 1. Despliego el "triangulito". 2. Clico en caché y aquí me muestra la fecha del último día en el que entró la araña. En este caso la home de la Universidad de Vic fue indexada el 28 de enero, o sea al viernes pasado. Todo perfecto, no hay ningún problema. Algunas búsquedas más: Mi sitio Web.

3 Escribo site:montsepenarroya.com (sin las www, sin espacio) y me sale aquí los resultados, dice: 2.180 páginas. Son muchas menos que la universidad pero claro, estás se han creado a mano o sea que cuesta crear tantas páginas pues son muchos años de ir creando contenidos. SoloStocks SoloStocks es una de las páginas Web que yo creé en el año 98, un marketplace entre empresas, el mayor de España, y es un sitio Web muy grande. Fíjate que tiene 674.000 resultados en Google. Quiere decir que 'la araña' de Google ha navegado por 674.000 páginas de este sitio Web. Eso quiere decir, también, que cuando yo busque "oferta de mesas de oficina" seguramente encontraría aquí esa oferta. Para estar segura de si algo está indexado o no, lo que debería hacer es entrar, por ejemplo, en una de las fichas entro en SoloStocks, clicaria por ejemplo en estas sillas, copiaría la url Control+C, vuelvo a Google y miro si existe en Google está url. Sí existe, la encontraría aquí y quiere decir que está indexada, sí quiero hacerlo más sencillo puedo decirle a Google que lo busque dentro del site. Facebook Entro en Google y tecleo "site:facebook.com" y veo que tienen 2.650 millones de resultados indexados, imagina la capacidad de Google para indexar, si sólo de esta Web ya tiene 2.650 millones de resultados. Nota: te enseño la de Facebook por dos cosas: La primera para que tengas claro que todo lo que pasa en Facebook acaba indexado en Google, excepto si el usuario tiene un nivel de seguridad muy elevado, pero sino acabará indexado. Para poder comprobar, por ejemplo, en cuántas páginas de Facebook se habla de nosotros, lo haríamos así: ● Escribimos en Google "site:facebook.com" y escribimos a continuación por ejemplo "Montse Peñarroya", cerramos las comillas entramos, y, me dice que en 253 páginas de Facebook se habla de Montse Peñarroya, tendría que comprobar cuáles son. Esto puede sernos muy útil para gestionar lo que es la reputación de alguien en Internet, pero también a nivel de SEO es importante porque vamos a ver cuando tratemos el algoritmo que una de las cosas que Google tiene en cuenta una de las variables es en cuantas páginas de nuestro sitio Web sale una frase clave así que deberemos comprobar que las frases por las que deseamos salir en primeras

4 posiciones las tengamos en el máximo número de páginas de nuestro sitio Web, pero ya lo veremos un poco más adelante en los vídeos dedicados al algoritmo. ¿Qué deberías hacer ahora? Ahora deberías realizar unas cuantas búsquedas por "site:nombredelsitioweb.com" que quieras. Pruébalo con sitios pequeños y con sitios grandes, sobre todo no incluyas las www, ni pongas un espacio. Si incluyeses las www entonces estarías discriminando los subdominios y te dejarías páginas y si incluyes un espacio directamente Google no entiende lo que le estás preguntando y te va a dar resultados de páginas en las que sale la palabra site y en las que sale el nombre de tu sitio Web, así que no serviría.

Sitemap: ¿cómo conseguir que Google indexe un sitio web en 48 horas?

¿Cómo podemos conseguir que Google en menos de dos días lea todo nuestro sitio Web, lo introduzca en su base de datos y que cuando alguien haga una búsqueda nos encuentra entre los resultados? Esto va a marcar la diferencia entre no tener mucho tráfico durante seis meses o tener tráfico desde el segundo día, así que es muy importante que entiendas cómo funciona y que sobre todo si estás ayudando a alguien que tiene un sitio Web nuevo sepa cómo dar de alta las páginas en Google. Lo primero que haremos es una búsqueda: site:montse penarroya.com y vemos que mi sitio Web tiene 2.180 resultados. Pues bien, ¿cómo se consigue que Google de forma rápida indexe 2.180 páginas? Utilizando un servicio de Google l lamado Google sitemap, esto es lo que antes se llamaba indexación express y el primer operador en ofrecer esto fue Yahoo. De hecho Google al principio de funcionar Alta Vista y el resto de buscadores lo único que te pedían era que entraras en su base de datos o entraras al buscador y, normalmente al pie de página, tenían un pequeño botón que ponía añadir url. Ibas allí añadías la url y la próxima vez que 'la araña' salía pues ya visitaba tu sitio Web. Pero tardaba tiempo en indexarte, y entonces, Yahoo, sacó un servicio en el que tú pagabas y en menos de 48 horas tenías todo el sitio Web indexado, a los pocos meses de Yahoo haber sacado este servicio Google sacó el suyo completamente gratuito. ¿Cómo funciona ese servicio? Actualmente es el más utilizado y sigue funcionando; ¿pero qué pide Google? Un Google Sitemap, un mapa del sitio Web pero específico para Google; no es un mapa del sitio Web para humanos, ni siquiera es un esquema de cómo es el sitio Web

1 para que una persona pueda encontrar el contenido, está especialmente creado para arañas y utiliza lenguaje xml. 1. Google dice créame un Google sitemap. 2. Cuelga este Google sitemap en tu sitio Web. 3. Ves a Google webmasters o Google search console (que es como se llama ahora Google webmasters) e indícame dónde has colgado ese Google sitemap. 4. En tiempo real Google lo va a leer y si lo puede leer bien nos dice de acuerdo, en 48 horas o menos todo el contenido estará indexado. En el sitio Web de Montse Peñarroya, lo que se ha creado es un sitemap: montsepenarroya.com/sitemap_index.html El nombre no es obligatorio que sea igual en todo los sitemaps lo único que quiere Google es que hagamos un sitemap y luego le digamos dónde lo hemos puesto. La web de Montse está creada con un WordPress y utiliza un plugin de SEO llamado Seo by Yoast. Ese plugin me crea automáticamente el sitemap. En este caso dentro de un sitemap general, el plugin crea varios pequeños sitemaps, uno para los posts, otro para las páginas, portafolio, categoría, las etiquetas, las entradas de portafolio y los diferentes autores que puede haber en mi Web, y luego si clico en uno de estos veo que dentro tengo otros sitemap con toda la información. O sea que si doy de alta el sitemap anterior, Google ya puede ver el contenido y luego entra en el sitemap e indexa el resto de páginas. Mi plugin de SEO lo que hace también es, automáticamente, lo cuelga en mi sitio Web, yo no tengo que hacer nada, lo publica él. De acuerdo, una vez está publicado lo que tenemos que hacer es ir a buscar Google webmasters entrado en google.com/webmasters con mi login y password y entr en el panel que corresponde a mi sitio Web. Es muy importante que aprendas a hacer funcionar Google webmasters por lo que es necesario que entres, te registres, demuestres a Google que eres el webmaster y aprendas cómo funcionan todo lo que Google webmaster nos ofrece. En este caso iremos a crowl y en crowl, aquí sitemaps y aquí es dónde tenemos que añadir nuestro site maps.

2 Add/test sitemap, clicaríamos aquí le pondríamos la url en la que lo hemos colgado o nosotros o el plugin que tengamos y haremos un submit y en tiempo real Google dirá "de acuerdo, lo puedo leer todo". Esperamos 48 horas y todo el contenido está dentro. Que deberíamos hacer si no utilizamos un plugin de SEO o si nuestro sitio Web está hecho a mano: En ese caso el sitemap deberá ser creado por una herramienta externa. En caso de emergencia lo podríamos crear nosotros, a mano, pero si el sitio Web tiene más de 100 páginas es muy engorroso tener que crear un listado de más de 100 páginas, para eso ya hay un montón de sitios Web en Internet. Por ejemplo, si vamos a Google buscamos sitemap builder o sitemap creador encontraremos muchos sitios Web que nos lo van a crear. Este mismo, por ejemplo, de la xml sitemaps te crea gratuitamente sitemaps para sitios Web. Creo que éste era de menos de quinientas páginas pero podría servirnos, le indicaríamos nuestro sitio Web, cada cuando cambiamos el contenido, podemos decirle daily, weekly, always lo que queramos, cuando hemos modificado el sitio Web por última vez (lo normal es indicarles Use server's response), a este de aquí, la prioridad le podemos decir que automáticamente la calcule, start. Lo que hace es enviar una araña al sitio Web, lee sitio Web, crea el sitemap y nos da un documento con ese sitemap. Ese documento deberíamos descargarlo, guardarlo en el sitio Web con el nombre del sitemap y subirlo a través de FTP (File transfer protocol). Una vez está publicado en el sitio Web, y lo podemos ver a través de la pantalla en nuestro sitio Web, es el momento de ir a Google webmasters y darlo de alta. Esperar 48 horas y todo el sitio Web indexado. Nota: Si nuestro sitio Web es mayor de quinientas páginas éste software no servirá, utilizaremos otro. En Internet encontraremos muchísimos que lo crean y la mayoría lo hacen de forma gratuita. Ten en cuenta: Si el sitio Web es nuevo, realmente importante, que hagas esto. Si el sitio Web ya lleva años indexado entonces esto es realmente importante sólo si cambias una parte del sitio o si creas toda una zona nueva, o por ejemplo en caso de que cambiases el nombre de dominio de tu sitio Web, hicieses un cambio pues en ese

3 momento sería muy importante que pudiera reindexar todo el sitio Web en menos de 48 horas.

Robots.txt: el protocolo de exclusión de robots

¿Qué es el protocolo de exclusión de robots y para qué sirve? El protocolo lo que intenta regular es el uso de las arañas. Recordaros que las arañas son programas que van por Internet buscando información y llevándolo a una base datos. Pues bien, a principios de los años noventa empezó a haber un problema en Internet con esas arañas pues había un montón de arañas navegando por Internet. Entonces se decidió que las arañas que eran legales, las que provenían desde buscadores o que estaban buscando información, pero no para hacer ningún mal a nadie, y que estaban pues simplemente navegando por Internet recabando información, se decidió que deberían seguir el protocolo de exclusión de robots. Este protocolo implica que cuando una de estas arañas llega a nuestra página Web se compromete a buscar instrucciones especialmente creadas para ellas en una página que se llama robots.txt en nuestro sitio Web. ¿Qué hace una araña cuando llega a nuestro sitio Web? Cualquier araña que llegue a nuestro sitio Web, lo primero que hace es buscar si tenemos creada esta página: robots.txt Si la encuentra, la lee, y si no la encuentra genera un error 404 en el servidor. En ese caso no pasaría nada y seguiría indexando pues entiende que no hay ninguna prohibición y que deseamos que indexe. ¿Cómo funciona exactamente este protocolo? Entraremos en la página: robotstxt.org

1 En esta página podemos ver todas las instrucciones si clicamos donde pone: the robots Ahí podemos ver todas las instrucciones que pueden darse a robots. Aquí encontrarás más información, también si entras en la Wikipedia y buscas protocolo de exclusión de robots encontrarás esta página que está muy bien creada, con muchos ejemplos de información que podemos dar a los robots. Veamos algunos. 1. Primer ejemplo: User agent*disallow quiere decir que no hay nada que esté prohibido, que permite que se visite todo. 2. Segundo ejemplo: User agent*disallow/ quiere decir que prohíbe a todos los agentes robots leer el contenido de nuestro sitio Web. En ese caso tendríamos contenido en el sitio Web que no aparecería en ningún buscador porque hemos prohibido el paso a las arañas. Algunos ejemplos ● Entramos en el sitio Web de nuestra Universidad, en la UVIC, y aquí escribimos /robots.txt y esto nos muestra un fichero aquí con la información. Cuando veas hashtags delante quiere decir que son comentarios, éstos sólo son comentarios, luego pone useragent* que vuelve a decir all a todos los agentes, crawl delay 10 que es la velocidad, aquello ves de 10 en diez, no vayas rápido y luego le dice en directorios disallow todo el directorio de includes, el de miscelánea, el de módulos, el de scripts, el de temas, etcétera y le va diciendo todo lo que no pueden indexar. ● Entramos en mi sitio Web montsepenarroya.com y tecleamos detrás del puntocom, /robots.txt y aquí encontramos esta página, dónde pone user agent*, de nuevo quiere decir a todos los user agent crawl delay 60, es a esta velocidad indexad de 60 en 60, esto me lo crea automáticamente mi WordPress. Las páginas Web que utilizan un gestor de contenidos estándar tipo WordPress, Drupal, Joomla... normalmente estos gestores de contenidos crean automáticamente esta página no hace falta, por tanto, preocuparse por cómo se crea, de todas maneras comprueba que en tu sitio Web esté creada. ● Entramos en Booking, por ejemplo, y tecleamos robots.txt veremos una gran lista de sitemaps y luego más información. Fíjate que aquí se le incluye a los robots, a las arañas, donde encontrarán nuestros sitemap. Esta, es otra forma de tener una indexación rápida; ya vimos en el vídeo dedicado a cómo indexarse rápidamente que debemos darnos de alta en Google webmasters e indicarle a Google webmasters dónde están nuestros sitemap.

Esta es otra forma de poder indicar a las arañas donde encontrarán nuestro sitemap para que puedan indexar rápidamente todo el contenido de nuestro sitio Web. Pero sigamos bajando, aquí tienen useragent psbot disallow todo o sea no quieren que este agente robot vea nada, este de aquí de Turnitinbot, tampoco quieren que vea nada el Npbot, tampoco quieren que vea nada. En cambio tenemos aquí hay Yandex direct que si quieren que vean. Observa cómo podemos poner el nombre de la araña o poner como veíamos antes el asterisco. Asterisco quiere decir que la información es para todas las arañas y cuando se pone un nombre de 'la araña' es para esa en concreto: tiene prohibido entrar en las diferentes zonas del sitio Web que se muestran. ● Tripadvisor. Fíjate en el comentario que sale al principio decía: Hi there, if you are sniffing around this file, and you are not a robot, we're looking to meet curious folks as yourself. Nos dice: si estás por aquí y éstas curioseando alrededor de este documento, y no eres un robot, nos interesas, envía tu currículum al email tal...fíjate que es una oferta de trabajo o sea que cuando termines este curso aquí tienes la primera oferta de trabajo. Ellos lo que entienden es que ninguna, ninguna persona que no sea un experto en SEO va a mirarse este fichero y por lo tanto si tú estás mirando este fichero es que sabes de qué va el SEO, y por lo tanto les interesas y te piden que les envíes tu currículo, tu currículo pues ya puedes hacerlo. Nota: Lo que me gustaría ahora es que parases este vídeo un momento y te dedicases a entrar a unos cuantos sitios Web tecleando tras su dirección, tras su url/robots.txt y vayas viendo diferentes maneras de dar instrucciones a los robots. ¿Cómo crear este documento? Hay dos formas de crear este documento: 1. Sin tener que hacer nada nuestro gestor de contenidos nos lo va a crear. Si tu Web está hecha con WordPress, Joomla, Drupal no te preocupes seguramente automáticamente lo ha creado y ya lo tienes colgado solo tienes que entrar en tu Web. Teclear la url/barra robots.txt y ver que te sale. Si no sale nada, si sale un error 404 es que el documento no está creado. Si sale una página en blanco puede ser que eso sea robots.txt pero que esté en blanco, no pasaría nada, quiere decir que no hay información para las arañas, pero no pasaría nada.

2. Sí, no, nos lo hace automático nuestro gestor de contenidos, lo podemos hacer nosotros mismos con cualquier editor de contenidos, serviría un bloc de notas, serviría un Word, cualquier editor serviría. Entonces, crearíamos este documento, escribiríamos (es mejor copiarlo de alguna parte), el nombre del robot que no queremos que nos vea o pondremos user agent all* y qué parte no queremos que se vea. Si queremos que se vea toda la Web, yo creo que es mejor dejarlo en blanco en todo caso, sí, escribir que al sitemap lo va a encontrar en tal sitio, para que si alguna araña que no es Google, entra y no estamos indexados en su buscador pues lo encuentra rápido y lo indexe, pero yo creo que es lo único que haría.

El algoritmo de Google y sus variables

...

Link building strategy

...

El SEO para móviles y SEO Internacional

...

Otras herramientas para el SEO

...

Buenas prácticas en SEO

...


Volver a la Portada de Logo Paperblog