Esos sitios que copian a otros su contenido y lo publican en su web o blog como contenido propio pueden llegar a ser la perdición para webmasters y las webs originales.
Aunque, lógicamente, el contenido original debería posicionarse por delante, muchas veces encontramos estos sitios por encima del autentico creador del contenido. Además suelen utilizar otros métodos de spam para obtener una alta clasificación de su contenido.
Lo que es peor, a veces la fuente original del contenido desaparece de los resultados de búsqueda, mientras que la versión duplicada sigue bien clasificada.
Google ha lanzado una nueva herramienta de contenido duplicado, desde la cual los webmasters pueden informar de las webs que han copiado su contenido, proporcionando a Google la URL de origen, desde donde se tomó el contenido y la dirección URL del sitio que la ha vuelto a publicar, incluso infomar de las palabras clave con las que esta posicionado este contenido duplicado.
Google también está pidiendo a los webmasters que confirmen que su sitio sigue las directrices para webmasters antes, aunque es muy posible que esos webmasters que encuentran la forma de informar ya sean conscientes de las directrices para webmasters de Google.
¿Significa esto que los sitios de contenido duplicado se están convirtiendo en un problema mayor ahora de lo que era en el pasado? No necesariamente, sin embargo, esto podría ser parte de la razón por la que han creado esta herramienta.
A veces los sitios con contenido duplicado no están necesariamente bien posicionados con las mejores palabras clave, pero lo suficiente para estorbar encima de los resultados de búsqueda después de los 10 primeros resultado y pueden ser mucho más frecuentes en los resultados de búsqueda, así como cuando se va más allá de la página 1 o 2 de Google (que puede ser difícil de encontrar contenido que no sea duplicado para palabras clave de “long tail” en algunas búsquedas).
Google no está diciendo exactamente lo que están haciendo con estos datos. ¿Este se utiliza como una manera fácil para los webmasters para obtener los sitios del raspador de el índice sin tener que utilizar la DMCA? ¿Están utilizando a mejorar sus algoritmos para tratar de determinar dónde está el contenido de origen es en comparación con el contenido de rascador? Google no dice, aunque sospecho que se está utilizando para mejorar el algoritmo por ver cómo y por qué raspadores están alineando.
Esta no es la primera vez que Google solicita ayuda a los webmasters, ya que también lo hizo en 2011 tratando de reducir el número de webs con contenido duplicado.
Espero que podamos ver una actualización sobre cómo se manejan estos datos enviados en una futura actualización del algoritmo de búsqueda de Google.
publicado el 11 junio a las 16:14
Gracias por la información de la herramienta Scrapper de Google.
Estábamos buscando una para analizar textos duplicados pero desconocíamos que existiera una de Google, pero existiendo esta da mucha más seguridad para la revisión de artículos de informática que estamos haciendo.
Buena info y saludos desde de http://www.deordenadores.com