Scraper / Scraping / Scraper Sites

Fremde Inhalte missbrauchen
Eine Scraper Site ist eine Webseite, auf der fremde Inhalte ohne Erlaubnis eingeblendet werden.

Scraper benutzen Roboter, um Inhalte von wertigen Webseiten automatisiert auszulesen. Diese gesammelten Inhalte werden dann mehr oder weniger thematisch sortiert und neu zusammengesetzt, um "eigene" Webseiten mit Inhalten zu produzieren. Durch die neue Zusammenstellung entstehen so vollständige Internetpräsenzen, die sich umfangreich mit einem Thema beschäftigen. Durch Einblendung von Werbung wird ein derartiger Missbrauch lukrativ.

Scraper stehlen die Inhalte fremder Seiten! Sie begehen Copyright- Verletzungen.

Solange eine Scraper Site von den Suchmaschinen nicht als solche erkannt wird, kann sie auch gelistet werden: Suchmaschinenspam! Beim Listing entsteht natürlich schnell das Problem des "duplicate content" (doppelte Inhalte). Theorethisch wird nur die "wichtigere" der doppelten Seiten gelistet. Dies sollte die ältere, originale, erste... Seite sein, was jedoch tw. bei schlecht strukturierten Originalwebseiten nur schwer festzustellen ist. Da Scraper- Sites strukturell i.d.R. stark suchmaschinenoptimiert sind, können sie also durchaus besser gelistet werden, als das Original.

Im Idealfall sollten Webmaster auf Verdacht und/oder in unregelmäßigen Abständen das Web auf doppelten Content überpüfen (s.u., externe Links). Welche Maßnahmen daraus aber folgen können bzw. welche wirksam sind, ist leider eine andere Geschichte. Zumindest kann man Suchmaschinenspam bei den Suchmaschinen melden.