El artículo Matt Cutts: Lo que Google posicionará en 2014 es un contenido original de Técnica SEO. Gracias por leerme y al publicador por mantener el enlace.
Matt Cutts estuvo el miércoles en Pubcon Las Vegas 2013, uno de los mayores eventos SEO a nivel mundial. Aquí tienes un resumen de los puntos que he visto de mayor interés, que puedes ampliar si sabes inglés en el resumen que publica Jennifer Slegg en Search Engine Watch. Matt se cargó algunos mitos, reveló la linea que piensa seguir Google de cara a 2014 y nos dió muchas pistas de lo que deberíamos hacer para que Google nos permita posicionar en 2014.
Estos son algunos puntos que comentó
- Búsquedas por voz, búsqueda conversacional, relacionadas e inteligentes (Deep Learning)
- Google Panda y Colibrí
- El Pingüino y el spam
- La muerte del Page Rank
Deep Learning y la búsqueda por voz in Regular and Voice Search
Google se da cuenta de que tu segunda búsqueda seguramente esté muy relacionada con la primera, y está trabajando en ello. Sabiendo que la mayoría de usuarios no pasan de la primera página, sino que realizan una segunda búsqueda para afinar los resultados. Esto lo consigue relacionando unas palabras con otras, y considerándolas relevantes. Lo llaman Deep Learning.
Además, cuando haces una búsqueda por voz no buscas igual que cuando tienes que teclear, sino que utilizas un lenguaje más natural como si estuvieras hablando con alguien que va a responderte, lo que cambia totalmente las keywords y la manera de encontrar los resultados adecuados para el usuario. Déjame que te ponga un ejemplo:
Si estás buscando sobre el tiempo (mereorológico), lo normal sería que digas “¿Qué tiempo hace?”; si ahora preguntas “¿Lloverá mañana?” Google quiere ser capaz de reconocer que esta búsqueda está relacionada con la anterior en vez de ser una nueva. Si tras eso preguntas “¿Y en Tarragona?”, debería mostrarte si mañana lloverá en Tarragona. Cuando añadas “¿Y el fin de semana?” debería mostrarte si lloverá el fin de semana en Tarragona…
Algo que recuerda a las películas de ciencia ficción donde las personas hablan con los ordenadores como si de un profesor se tratara…
Google Colibrí, Panda & Authorship
¿Te das cuenta de que no he publicado absolutamente nada sobre el nuevo algoritmo de Google? Eso es porque me temía que sería un poco inutil, y la conferencia de Matt Cutts vino a confirmalo.
Matt dijo que cuando anunciaron Colibrí, el cambio ya llevaba un mes en funcionamiento, y nadie lo había notado. Esos son los hechos, por lo que no tiene sentido ir corriendo a cambiar lo que estamos haciendo, sino adaptarse a lo que vendrá en el futuro y seguir centrándose en contenido de mucha calidad, útil para el usuario. Aunque muchos blogs estén diciendo lo contrario, el impacto no ha sido fuerte, sino que es un cambio cualitativo.
También se comentó sobre el Panda: lo único que hay que hacer para volver a los rankings es publicar contínuamente contenido de calidad. Otro día os explicaré como convertir esto en un método y que las visitas vayan poco a poco en aumento.
Sobre Authorship tampoco se dijo nada que no sepamos (este artículo sobre Authorship explica algo, aunque debería ampliarlo), pero se ha confirmado varias veces que es el método favorito de Google para determinar la autoridad de un autor (valga la redundancia), ganar visibilidad en los resultados de búsqueda (SERP) y aseguró que es la dirección en la que Google continuará trabajando.
Google y los Resultados de Búsqueda Móviles
Sobre el impacto de los smartphones y tabletas en los resultados de búsqueda se dijo que hay que continuar centrándose en este aspecto, y se especificó muy claramente que las páginas que no se vean bien en un smartphone sufrirán un impacto negativo en sus rankings desde un móvil.
Por ejemplo:
- Si tu smartphone no puede mostrar Flash, no verás en los resultados ninguna página que tenga flash.
- Si abusas del uso del Flash, es posible que ni siquiera aparezcas. Google no usa Flash.
- Si tu web dirije todo el tráfico movil a la página de inicio de la versión móvil, en lugar de la a versión móvil de la página correspondiente, vas a perder posiciones.
- Si tu web carga lenta en un móvil, a Google le gustará menos posicionarla cuando alguien busque desde un móvil…
Está claro lo que eso significa: Si tu web no es móvil, Google no te traerá usuarios móviles. Los webmasters debes priorizar la movilidad de su web inmediatamente.
El Pingüino de Google, su estrategia anti-spam y la publicidad
Luego le tocó el turno a la estrategia de Google para combatir las webs de spam, es decir, blogs o webs cuyo único fin es mostrar publicidad para rentabilizarse de forma rápida.
Confirmó que una medida para saber si lo están haciendo bien es esta: En Google se ponen a leer los foros de BlackHat en busca de Webmasters llorando por sus páginas de nichos y AdSense. Si ven que no les afecta, modifican los parámetros del algoritmo para ser algo más crueles y más sensibles a detectar este tipo de webs de spam que no le son útiles al usuario. Cuando los spammers lloran y les amenazan, saben que están haciendo biensu trabajo (sic).
Su trabajo sobre ciertas keywords sobre “inversiones”, “seguros” y pornografía también es específico, pues Google sabe que son palabras clave muy rentables y que tienden a ser perseguidas por los spammers, cuando el trabajo del buscador es que los resultados estén libres de webs inútiles.
Sobre las penalizaciones que puede sufrir una web por el exceso de publicidad también fué claro: Google ha penalizado muchos periódicos en EEUU y UK por no marcar adecuadamente los publireportajes, y seguirá penalizando a quienes no marquen adecuadamente la publicidad para distinguirla de un reportaje puro y trasnfieran Page Rank. Cuando se marque adecuadamente el contenido publicitario pagado, y se usen correctamente las etiquetas “nofollow” Google no tendrá motivos para penalizar.
Las reds de blogs con el único propósito de posicionar o de hacer spam, también están en el radar de Google, y siguen cayendo una tras otra.
La muerte del PageRank
El PageRank, ha muerto oficialmente.
Matt Cutts dijo claramente que el PageRank, de forma interna, se actualiza a diario. Cada tres meses más o menos (sic) se debería hacer pública dicha información vía Google Toolbar, pero por desgracia el código utilizado para llevar esos datos a la parte pública se les rompió, y no tienen a nadie trabajando en ello. Las palabras de Matt Cutts fueron que “No deberíamos esperar que hubiese actualizaciones públicas del PageRank próximamente, al menos este año.”, y yo personalmente no espero que dicha información vuelva a ser de dominio público, más bien pienso que tarde o temprano Google anunciará que dicha situación es definitiva.
De cualquier modo, dicho anuncio debería ser más que suficiente para saber lo que le espera al dato público. Como mucho se quedará como está, algo que la mayoría de webmasters nos esperábamos.
Communication with Webmasters, Rich Snippets, JavaScript
Google intenta acercarse más a los Webmasters: hacen nuevos videos hablado sobre hacking y virus, y son conscientes de que no todos los dueños de webs tienen claro como reparar esos problemas. También lo contó Matt, que él no es la única cara de Google, sino que tienen más de 100 eventos anuales, Hantouts en directo, foros, etc.
JavaScript, es otro caballo de batalla del buscador por ser una de las formas preferidas de los spammers para esconderse. De todas maneras aunque Google sabe leer cada vez mejor el javascript, nos indicó que nos cuidemos de hacer webs enteras con javascript.
Los Rich snippets también han tenido su dato interesante: “Los sitios con mejor reputación tendrán visibles los Rich Snippets, y los sitios con una reputación más baja verás como los suyos son eliminados”.
SEO Negativo
Se vió un caso práctico donde un participante preguntó a Matts por el SEO negativo. Tras analizar el caso se descubrió que en lugar de malos enlaces por parte de la competencia, se habían comprado enlaces en 2010, pero solo ahora los había descubierto Google para ejecutar la penalización.
Es algo real, pero Google insiste en que los casos de seo negativo son muy raros y normalmente los problemas nos los creamos nosotros solitos.
El futuro de Google
Se insistió otra vez en la movilidad y la usabilidad del una web.
El tráfico móvil de Youtube ah subido de 6% hasta el 40% en dos años. incluso hay paises donde ya hay más tráfico móvil que de ordenadores de escritorio. “Si tu website se ve mal en un móvil, ahora es el momento de arreglarlo”, prestando atención a la facilidad en el rellenado de formularios y tareas que debe realizar el usuario.
Google aprende a leer!
Google trabaja en una máquina para enseñar a sus sitemas a leer y comprender a un nivel de escuela elemental. No sé lo que quiso decir con esto, pero sus laboratorios deben ser muy divertidos para los programadores!
Authorship
AuthorShip y AuthorRank será potenciado por Google para evitar el spam, siendo un punto de apoyo de Google para evitar que las web posicionen sin merecerlo, ya que es mucho más complicado crear una identidad con buena reputación, que una web fantasma. Se han dado cuenta que eliminando de los resultados a los autores de mala calidad, los mejores autores subirían en los resultados, mejorando así el contenido ofrecido por el buscador.
Black Hat y Piratas
Trabajan en la siguiente generación de detección de hackers; esta vez no se trata de detectar BlackHat, sino contenido ilegal que te haría ir a prisión. Google no quiere resultados prohibidos, como pornografía infantil, sino que dijo: “Si haces búsquedas muy sucias en Google, entondes no queremos que encuentres nada en Google”
El siguiente algoritmo penalizador
La siguiente generación del algoritmo se centrará en los sitios con mucha publicidad, sobretodo en aquellos que tienen demasiada publicidad Above The Fold (ATF, la zona de la web que se ve en pantalla sin necesidad de scroll); y remarcó que serán penalizables los scripts que intenten hacer creer al robot que la publicidad está UTH (Under The Fold, la zona de la web que no se muestra si no hacemos scroll o nos movemos hacia abajo).
Preguntas y Respuestas de Matt Cutts
Sitios de notas de prensa o directorios de artículos
Estos sitios no penalizarán, pues tienen su razón de ser, sin embargo dejarán de transmitir autoridad (PageRank) a los sitios enlazados.
Scroll Infinito
Los sitios como Twitter o Facebook donde el usuario puede ir bajando indefinidamente suponen un problema para algunos motores de búsqueda. Se sugiere implementar un sistema de enlaces en la misma página que permita acceder a todos los sectores de la página sin esperar a que se cargue el infinito.
¿La gran cantidad de contenido y multitud de posts diarios tiene impacto en los rankings?
La respuesta usó al Huffington Post como ejemplo: Muchos autores significan varios posts diarios, y se sugirió publicar tanto como tu audiencia espere recibir. (Yo interpreto que sí, que hay que publicar mucho)
En resumen:
No hay resumen. Cada punto se merecería un análisis en profundidad que hoy ya no me da tiempo (estoy a punto de pillar una tendinitis), iremos vigilando experimentos y resultados para ver como afectan todas estas sugerencias de Matt Cutts. Algunas pueden ser interpretadas como el camino a seguir, y otras se pueden ver como algo que realmente posiciona y que a Google le da miedo que hagas porque realmente de posicionaría muy bien.
Si me tengo que quedar con algo, con la potencia de AuthorShip. ¿Tu con qué te quedas?