Si, de verdad los detesto. Para los que no sepan que es el scraping, consiste en un sitio en el que el texto de los artículos se toma íntegro de otros sitios, por lo general por medio de herramientas de software especializadas, que se encargan de hacer todo el trabajo. ¿Porqué hacer un blog con scraping? fácil: por los anuncios; ajustas el software de scraping, pones tus anuncios, robas el texto de cientos, quizás miles y quizás hasta millones de sitios, y voilá, dinero fácil.
Aquí tengo un problema similar con varios scrapers, el último de ellos se llama frikiblogs.com, y el cual ya se ligó a más de 5 posts de este sitio. Si visitas su sitio, podrás comprobar lo que digo: un sitio de 3 pesos, sin tema, hecho con el único fin de desplegar anuncios para ganar dinero. Es una lástima que Google no haga nada contra este tipo de sitios, y sea muy difícil eliminarlos.
Una característica que es particularmente vulnerable al scraping son los feeds, sobre todo los que publican el contenido completo del artículo, pues son el camino perfecto para robar el contenido de otros sitios. Algunos emplean técnicas como el cloaking, el cual consiste en proporcionar un feed falso lleno de basura dependiendo de la IP que lo solicite. Otra técnica es poner avisos legales en el feed, con el plugin Angsuman’s Feed Copyrighter, el cual añade un copyright al final de cada link del feed.
Ni hablar, a seguir luchando con esta peste… 🙁
sinceramente, debería llamarse FREAKblog!!, esta horrible!! esa pagina, y bueno, para lo que la usan…. creo que ahí mismo se nota la falta de creatividad y de materia gris, todo cae por su propio peso, al menos yo nunca leería algo ahí… aun con el eslogan de recopilando lo mejor de la web, ja!, el mejor hurto de la web seria pues..
aunque siento que en cualquier momento esa web quedaria vacia y sin contenidos… asi como se puede robar, tambien se pueden poner proteccion no?