5 Fragen zum Thema Duplicate Content und deren Antworten
In diesem Artikel widme ich mich dem Duplicate Content und beantworte fünf Fragen, welche mir zu diesem Thema immer wieder gestellt werden.
In diesem Artikel widme ich mich dem Duplicate Content und beantworte fünf Fragen, welche mir zu diesem Thema immer wieder gestellt werden.
Als Duplicate Content bezeichnet man ähnliche oder sich wiederholende Inhalte / Textpassagen, die über verschiedene URLs abrufbar sind. Dabei gibt es zwei unterschiedliche Formen: Doppelte Inhalte innerhalb einer Domain und gleiche Inhalte auf unterschiedlichen Domains.
In diesem Blogpost widme ich mich jenem Duplicate Content, der auf unterschiedlichen Domains zu finden ist und werde im Zuge dessen 5 Fragen beantworten, welche mir zu diesem Thema immer wieder gestellt werden.
Nein, denn Suchmaschinen wie Google haben den Anspruch, ihren Usern keine Inhalte doppelt anzuzeigen. Sollte eine Suchmaschine nun im Internet auf Duplicate Content stoßen, zeigt sie meist nur eines der Ergebnisse in der Suchergebnisliste an. Dieses Ergebnis wählt sie nach bestimmten Kriterien aus, welche in der Infografik von searchengineland sehr anschaulich dargestellt werden:
Bild: searchengineland.com
Um zu prüfen, ob die eigene Website von Duplicate Content betroffen ist, kann man beispielsweise einen Satz des auf der Website befindlichen Contents in das Google-Suchfeld kopieren und das Internet auf diese Weise durchsuchen. So entwickelt sich das Ganze aber zur Suche nach der Nadel im Heuhaufen. Eine darauf spezialisierte Seite wie copyscape empfiehlt sich deshalb eher, da man hier ganz einfach durch die Eingabe der eigenen URL das Internet nach Duplikaten durchsuchen kann. Internen Duplicate Content findet man beispielsweise sehr gut mit Hilfe von Screaming Frog.
Wie schon kissmetrics.com in ihrem Artikel zum Thema „Duplicate Content“ geschrieben haben, gibt es bisher nur einen nachgewiesenen Fall, wo duplizierter Content das Ranking einer Website verletzt hat. In diesem einen Fall hat eine PR-Agentur den Homepage-Text der neuen Seite kopiert und ihn ohne Abänderungen als Pressaussendung ausgeschickt. Da viele Webseiten diese Aussendung veröffentlichten, kam es binnen kürzester Zeit zu hunderten Versionen desselben Contents.
3 unterschiedliche Punkte griffen hier ineinander und nur deshalb landete die Website für einige Zeit auf der Blacklist: Es wurden nicht nur hunderte Artikel desselben Textes innerhalb sehr kurzer Zeit online gestellt, sondern es handelte sich dabei auch um die Homepage-Kopie einer brandneuen Domain, die Google noch nicht bekannt war, wodurch das Verhalten als Spam eingestuft wurde.
Viele Websitebetreiber fürchten jedoch, dass bereits 1000 idente Wörter auf ihrer Page negative Auswirkungen auf das Google-Ranking haben. Aber es braucht mehr, um die Alarmglocken bei Google läuten zu lassen. Viele Seiten, auch manche der populärsten Blogs, greifen auf Artikel zurück, welche bereits anderorts veröffentlicht wurden. Diese Blogger glauben nicht, dass der Content auf Google rankt, aber sie wissen auch, dass er der Glaubwürdigkeit ihrer Seite keineswegs schadet.
Wenn man einen Gastbeitrag auf einer anderen Seite schreiben soll, freut man sich, denn schließlich heißt das, dass die eigene Arbeit auch von anderen wertgeschätzt wird. Damit aber auch die eigenen Leser diesen Beitrag sehen, kann man den Artikel doch auch hier veröffentlichen – oder kommt es so zu Duplicate Content? Nein! Google lässt sich von einer erneuten Veröffentlichung eines Blogartikels nicht verwirren.
Um jedoch auf Nummer sicher zu gehen, empfiehlt es sich dem Beitrag einen kleinen HTML-Tag beizufügen – den sogenannten „Canonical Tag“. Dieser Tag erklärt der Suchmaschine, welche der beiden veröffentlichten Texte die Originalversion ist. Will ich diesen Blogbeitrag also nun auch auf meinem privaten Blog veröffentlichen, muss ich folgenden Tag anhängen:
<link rel=“canonical“ href=“https://www.pulpmedia.at/duplicate-content“/>
Des Weiteren ist es auch von Vorteil, wenn man den Titel des erneut veröffentlichten Textes ändert. So vermeidet man Sanktionen und kann daraus einen SEO-Vorteil ziehen, wenn beide Texte dasselbe Fokus-Keyword aufweisen.
Hier kann ich mit Sicherheit sagen, dass Scraper einer Seite nicht schaden. Sieht man sich beispielswiese sehr erfolgreiche Blogs an, bemerkt man, dass diese oft schon am Vormittag mehrfach gescrapet wurden. Diese Blogs erklären nicht jeden Link eines Scrapers für ungültig und lassen sich von diesen auch nicht aus der Fassung bringen, da sie keinen Duplicate Content befürchten.
Sollte dennoch einmal der seltene Fall eintreten, dass eine Scraper-Seite das Original im Suchranking übersteigt, sollte man das Google mittels des Scraper Report Tool mitteilen.
Googlebots durchforsten beinahe täglich jede Website. Wenn diese nun nach einer gewissen Zeit einen kopierten Content auf einer anderen Seite finden, wissen sie, welcher der Originaltext ist. Des Weiteren ist es sehr beruhigend, wenn man sich vor Augen führt, dass Google ungefähr 2000 Doktoren der Mathematik in seinem Team hat. Einige davon werden hoffentlich schon ihr Handwerk verstehen und eine Domain nicht bestrafen, wenn der darauf befindliche Text nicht immer ein originaler ist. Das Internet ist voll mit Duplicate Content, das weiß auch Google und hat seit 1997 Übung darin, originale Inhalte von Duplikaten zu unterscheiden.
Newsletter abonnieren