spam
Tú Copia que yo te Spameo

Cómo evitar sacar provecho de que te copien plagien el contenido o artículos de tu blog

Los copiadores, plagiadores o gente con tiempo libre… no se destruyen, se transforman. Sencillamente están ahí, cómo los midiclorianos; una movida de internet que siempre ha estado ahí y siempre lo estará.

La forma más fácil de evitarlo es mediante el siguiente comando en el body:

<body ondragstart=”return falseoncontextmenu=”return falseonselectstart=”return false“>

Con este comando vamos a conseguir que el el usuario no pueda ni seleccionar ni arrastrar ninguna parte parte de nuestra web, por lo que copiar nuestra web, a mano, será imposible.

largo de mi contenido

Sin embargo… existen métodos mejores… también podemos combatir el fuego con fuego, al más puro estilo jungla de cristal

Añádele un enlace al contenido copiado de tu web

Si el caramelo es tu contenido, inyéctale veneno (con amor)

Ya hay bastantes webs que están utilizando el servicio de javascript de Tynt, cuya función principal es la de inyectar texto a los contenidos copiados.

De este modo conseguimos que si un usuario copia y pega el contenido de nuestra web, se le incluya un fragmento editado por nosotros, citando a la fuente (o llamándole de todo menos bonito, eso depende de nosotros)

La solución más simple para ello, es esta versión de jQuery que he estado testeando y aparentemente funciona muy bien

jQuery( document ).ready(function( $ ){function addLink(){var sel = window.getSelection();var pagelink ="<br /><br /> Source: <a href='"+ document.location.href +"'>"+ document.location.href +"</a><br />© text is here";var div = $('<div>',{style:{position:'absolute', left:'-99999px'}, html: sel + pagelink}); $('body').append( div ); sel.selectAllChildren( div[0]); div.remove();} document.oncopy = addLink;});

Mediante este código, podremos sentarnos en nuestros sillones mientras vemos llegar los enlaces lentamente.

Esto es algo que fijo que habréis leído ya o que ya sabréis que existe… Sin embargo, debo decir que mi estilo no es nada conformista, así que yo mejoraría esta receta

 

antes de nada monitorizaría por ejemplo con un simple copyscape (pro) donde nos están copiando,
para ver un average de sitios desde donde os estan copiando.

De esta forma podríais ver antes de tiempo, donde vais a pisar. Pensad que la mayoría de gente que copia… no es gente, son bots.

Sin embargo, pulida, es una buena estrategia.

Cómo la puliría?
Ha llegado el momento brasas:

Paso 1: a mí no me scrapea ni dios:

incluiría una serie de parámetros en robots.txt para evitar la entrada de bots dañinos que puedan realizar ataques DDOS o similares hacia el sitio web o scrapear (robar) el contenido de la web, provocando consecuencias negativas tanto en el posicionamiento de la web cómo de su correcto funcionamiento:

De esta forma evitaríamos que esos enlaces potenciales acaben en blogs automatizados
User-agent: Orthogaffe
Disallow: /

User-agent: UbiCrawler
Disallow: /

User-agent: DOC
Disallow: /

User-agent: Zao
Disallow: /

# Some bots are known to be trouble, particularly those designed to copy
# entire sites. Please obey robots.txt.
User-agent: sitecheck.internetseer.com
Disallow: /

User-agent: Zealbot
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: Fetch
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: WebZIP
Disallow: /

User-agent: linko
Disallow: /

User-agent: HTTrack
Disallow: /

User-agent: Microsoft.URL.Control
Disallow: /

User-agent: Xenu
Disallow: /

User-agent: larbin
Disallow: /

User-agent: libwww
Disallow: /

User-agent: ZyBORG
Disallow: /

User-agent: Download Ninja
Disallow: /

User-agent: wget
Disallow: /

User-agent: grub-client
Disallow: /

#
# Doesn’t follow robots.txt anyway, but…
#
User-agent: k2spider
Disallow: /

#
# Hits many times per second, not acceptable
# http://www.nameprotect.com/botinfo.html
User-agent: NPBot
Disallow: /

# A capture bot, downloads gazillions of pages with no public benefit
# http://www.webreaper.net/
User-agent: WebReaper
Disallow: /

Paso 2: y tú quien @#€&! eres?

  • Pasaría uno o dos artículos por categoría (recordemos que los mejores bots o scrappers, copian por subtemática) en una herramienta tipo Copyscape
  • Elaboraría un listado de dominios
  • Mediante NetPeak domain Checker analizaría los dominios para obtener datos de: DA y PR
  • Todo dominio que tenga DA medio-alto y no PR, es sospechoso de estar penalizado.
  • Con un bot, ejecutaría un script para comprobar resultados de cada dominio ante una query “site:”
  • Todo aquello que me generase un resultado “0”, debería ser anotado dado que es un dominio penalizado

-En general puliría la lista de “donde nos copian” para ver el % de enlaces buenos que vamos a obtener.
*Debemos tener en cuenta, que ese listado de instrucciones de robots, no las siguen todos los scrappers, así que si el porcentaje es superior a un 45% de sitios spammers desde donde vamos a sacar enlaces, yo me lo pensaría.

Paso 3: Esto que me va a dar?

Hay que analizar, viendo los datos de cuanta gente nos copia y cuantos artículos salen por día, cuantos enlaces vamos a obtener. (por 5 enlaces no merecen la pena muchas cosas)

En cualquier caso debemos tener en cuenta que es importante definir KPI’s para poder tener una previsión de resultados, si no tenemos ni idea del éxito que vamos a obtener, no podremos valorarlo una vez hecho ni celebrarlo debidamente en caso de que funcione.

Paso 4: implementar, monitorizar, monitorizar y monitorizar.

pues eso, repasar cada dos semanas WTF está pasando:

  • ¿Los enlaces que recibimos son buenos?
  • ¿Los está cogiendo WMT?
  • ¿Los cogen otros agregadores de enlaces?
  • ¿Me han penalizado?
  • ¿El crecimiento de los enlaces es inmenso y mañana lo estaré?
  • ¿Ganará el Barça contra el Athleti?

Paso 5: Celebrar el éxito/Llorar debajo de la almohada

 

Paz,