Posts Tagged ‘google update’

Usability Optimierung

Panda 4.0 & Payday-Loans 2.0

Google Update Panda 4.0 & Payday-Loans 2.0

Das Panda Update sorgt bereits seit Anfang 2011 für Turbolenzen in der SEO-Marketing-Szene. Viele bis dahin gängige SEO-Techniken können nicht mehr angewandt werden. Mit jedem weiteren Update des Panda Updates rollte eine wahre Tsunami-Welle der Panik durch die Branche. Nun wurde im Mai 2014 das nächste große Panda Update ausgerollt – Panda 4.0. Dazu ein weiteres Update zu einem Algorithmus, der vor allem Spamlinks im Visier hat und seit 2013 in den Algorithmus implementiert wird: Payday Loans 2.0. Nachfolgend beschreiben wir die Auswirkungen und wann Handlungsbedarf besteht.

Panda 4.0: der Inhalt macht den Unterschied

Natürlich ließen die ersten technischen Reaktionen vom 4.0 Panda nicht lange auf sich warten. Schon kurz nach dem Ausrollen des Algorithmus konnten die ersten gravierenden Bewegungen in den Google SERPS beobachtet werden. Seiten, die Gutscheine anbieten, hat es dabei am schwersten getroffen. Bis zu 50 Prozent ihrer Sichtbarkeit in den SERPS haben diese Plattformen eingebüßt. Aber auch Produktvergleichsseiten und sogar eBay wurden relativ hart getroffen. Insgesamt lässt sich daraus ableiten, dass es insbesondere solche Webseiten getroffen hat, die recht dünnen oder gar doppelten Content auf ihren Servern liegen haben.

Seiten, die von Panda und Payday Loans getroffen wurden

Allerdings lassen sich diese Ergebnisse nicht ganz auf Panda 4.0 zurückführen. Payday Loans 2.0 zielt laut Chef-Spam-Bekämpfer Matt Cutts explizit auf sehr spam-trächtige Anfragen ab (very spammy queries). Zwar fallen dazu gerade im Pharma-Bereich sofort zahlreiche Spamlinks ein, doch wer regelmäßig surft und Suchmaschinen nutzt, weiß, dass auch Gutscheinseiten manchmal ziemlich aggressiv beworben werden. Besser als bei Gutscheinportalen lässt sich der reine Panda-Zusammenhang dabei bei Produktvergleichsseiten erkennen.

Sicherlich wird es noch einige feine Änderungen geben

Hier wird traditionell mit vielen bestehenden Inhalten gearbeitet, also die Inhalte von Produktanbietern übernommen, weil sich das Ganze inhaltlich auch eher schlecht aufbereiten lässt. Von daher ist es also eher unwahrscheinlich, dass Google solche an sich hilfreiche Seiten im Visier hatte. Sicherlich wird der Konzern hier noch etwas an der Feinjustierung schrauben – so wie das schon bei vorangegangenen Panda-Updates immer der Fall war. Allerdings lassen sich die Ziele, worauf es Panda 4.0 damit abgesehen hat, sehr gut erkennen.

Nicht müde werden beim Wiederholen: guter einmaliger Content ist einer der Erfolgsschlüssel

Mit jedem Update zählt mehr denn je: hochwertiger und vor allem einzigartiger Content ist die beste Garantie, dass Webseiten in den SERPS (Suchmaschinen-Suchergebnisseiten) nicht abrutschen. Diejenigen, die regelmäßig ihre Inhalte erneuern, auffrischen und vor allem individuell erstellen, sind damit nicht von Panda 4.0 betroffen. Dennoch sind die Zahlen von Webseiten, die vom Algorithmus-Update getroffen wurden, durchaus interessant: im englischen Internetraum hatte Panda 4.0 auf rund 7,5 Prozent aller Webseiten einen Einfluss.

Linkaufbau nur noch mit sehr viel Gefühl

Bedankt man nun, dass spätestens seit 2011 beinahe gebetsmühlenartig auf einschlägigen SEO-Seiten zu lesen ist “Unique Content is King”, ist die relativ hohe Zahl doch überraschend. Dafür wurden aber von dem wesentlich aggressiveren Payday Loans 2.0 Update lediglich 0,3 Prozent aller Seiten betroffen. Ein Zeichen zumindest dafür, dass die aggressive Spammerei langsam zu einem Ende zu kommen scheint – sieht man von einigen unverbesserlichen Blackhat-Webmastern einmal ab. So lange also kein aggressiver Linkaufbau vorgenommen wird, der förmlich nach Spam riecht, haben Webmaster nichts zu befürchten. Identifizierte Seiten dagegen rutschen in der Regel nicht nur in den SERPS ab, sie fallen ganz aus dem Index.

Hat Panda die eigene Webseite beeinflusst?

Ob eigene Webseiten getroffen wurden, lässt sich nur dann einigermaßen sicher vermuten, wenn die Besucherzahlen mit dem Ausrollen des Updates zeitgleich relativ massiv absanken – oder, wie auch in vielen Fällen – anstiegen. Denn normale Änderungen aufgrund des regulären Algorithmus sind immer einzuplanen. Nur bei massiven Sichtbarkeitsveränderungen kann man aber einigermaßen sicher davon ausgehen, dass Panda 4.0 einen Einfluss gehabt haben könnte. Wenn dem so ist, können Sie sich gerne an unsere Agentur wenden.

Probleme mit Panda oder Payday Loans? Wir helfen gerne weiter

Wir sind bestens mit SEO-Marketing vertraut und unsere Projekte blieben von sämtlichen Panda, Farmer oder auch Payday Loans Updates weitgehend verschont. Denn wir betrachten das Internet schon immer in seiner Gesamtheit. Und bereits vor den ersten Farmer und Panda Updates war abzusehen, dass es zu diesen Einschnitten kommen musste. Entsprechend gut vorbereitet sind die Projekte unserer Kunden seit jeher. Wir können sogar eher feststellen, dass von uns geführte Projekte regelmäßig zu den Algorithmus-Update-Gewinnern gehören.

Viel Erfolg wünscht das Team von fullseo.de

Seo Dienstleistungen

Seo Dienstleistung

Penguin 2.0

Im Februar 2011 rollte Google das Panda Update für seinen Algorithmus aus. Das war für viele Webmaster, Seitenbetreiber und SEO-Agenturen bereits ein kleiner Tsunami, der durch die Suchergebnispositionen schwappte. Doch es sollte noch heftiger kommen. Penguin war eine klare Ansage gegen exzessive Spammer, doch auch solche Seiten, die nach den Richtlinien von Google optimiert wurden, traf es. Gerade im April 2013 wurde dann das 25. Panda-Update ausgerollt, allerdings schlug es nicht mehr die großen Wellen. Seit Tagen diskutiert die SEO-Gemeinde allerdings über ein gänzlich neues Update – Penguin 2.0. Matt Cuts, den viele schon vor seiner Zeit bei Google kannten, gab bekannt, dass dieses Penguin 2.0 Algorithmus-Update drastischer sein sollte als alles bisher da gewesenes. Sogar Tipps zum Vermeiden von Abstürzen in den SERPS veröffentlichte Google.

Penguin 2.0 am 22. Mai ausgerollt

Während Panda vornehmlich On-Page-Optimierung betrifft, richtet sich Penguin mehr Richtung Off-Page-SEO, also Backlinks, Anchor-Texte, Drittseiten-Check nach Qualität und vieles mehr. Genau hier setzt auch Penguin 2.0 an. Laut Matt Cutts sollte das neue Release für den Suchmaschinen-Algorithmus vor allem Black-Hat-SEOs abstrafen und Websites im Ranking nach minderwertigen Backlinks abstrafen. Am 22. Mai wurde Penguin 2.0 dann tatsächlich ausgerollt, selbst in anderen Sprachen wurde es bereits implementiert. Bisher sind die Auswirkungen kaum spürbar, durch die SEO-Gemeinde raunt ein wohliges Aufatmen. Doch erste Stimmen warnen bereits, denn auch alle anderen Updates wie Panda oder Penguin 1.0 erfolgten nicht in einem Zug. Wie bereits eingangs angemerkt, folgte eben erst im April das 25. Panda Update und bei Penguin ist es die vierte Anpassung.

Die große Ruhe vor dem Sturm?

Daher sollten alle Seitenbetreiber und Webmaster durchaus noch den von Google vorgeschlagenen Änderungen folgen, falls noch nicht geschehen. Es scheint darauf hinzudeuten, dass dieses erfolgte Update womöglich ein erstes, noch relativ harmloses Release gewesen sein könnte und massive Änderungen erst im Lauf der nächsten Wochen und Monate folgen. Dafür spricht auch, dass Matt Cuts schrieb, dass Penguin 2.0 in den nächsten Wochen kommen würde, doch Penguin 2.0 wurde bereits am 22. Mai eingespielt, also gerade einmal zehn Tage nach der Ankündigung. Auch die Kommentare in dem von Google dazu veröffentlichten Video gestatten diese Interpretation. Demnach sollten folgende Punkte nach wie vor große Beachtung finden:

- der Traffic auf zu verlinkenden Seiten muss gut sein (im englischsprachigen Internet sollten Backlinks auf Seiten mit einem höheren Alexa-Wert als 7.000.000 vermieden werden
- Backlinks ausschließlich auf themenrelavanten Websites
- Verlinkungen ausschließlich von Domains einer anderen Domain C-Klasse
- Keine Verlinkungen von Seiten mit Adult-Content
- Bad Neighboorhood-Backlinks vermeiden

Die Eigenschaften der Backlink-Domain sind wichtig

Aber auch die Attribute der Domain, von der aus verlinkt werden soll, müssen passen. Dazu gehört, dass Seiten mit einem niedrigen Google PageRank zu meiden sind, außerdem sollten diese Domains wenigstens ein halbes Jahr alt sein. Zudem dürfen nicht zu viele ausgehende Links auf der Backlink-Seite zu finden sein. Eine große Rolle spielt auch der Anchor-Text. Dieser darf keinesfalls überoptimiert sein. In diesem Zusammenhang dürfte in der Zukunft Co-Occurrence immer wichtiger werden. Darunter versteht man den Zusammenhang zwischen eigentlichem Anchor-Text und der umgebenden, nicht mit verlinkten Beschreibung zum Linktext.

Hilfe bei Schwierigkeiten beim Bereinigen und allgemeinen Optimieren

Sicher ist es nicht immer einfach, tatsächlich alle Backlinks zu entfernen, die den oben genannten Kriterien entsprechen bzw. bestimmte notwendige Voraussetzungen nicht erfüllen. Das hat Google schon vor lange vor Penguin 2.0 erkannt und bietet in den Webmastertools daher eine Option, solche Backlinks zu neutralisieren. Unter dem Menüpunkt “Disavow” können entsprechende Backlinks eingetragen werden. Das Qualifizieren bzw. Disqualifizieren eines Backlinks ist indes nicht für jeden Seitenbetreiber einfach. Wer hier Schwierigkeiten hat – was natürlich auch die gesamte Optimierung einer Domain betrifft – kann sich gerne an uns wenden.

Viel Erfolg wünscht Timo Rimpel (fullseo.de)

Seo Dienstleistungen

Seo Dienstleistungen

Google und das “Ranking-Update”

Nun ist es passiert. Einerseits ging es mal wieder wie ein Donnerschlag durch die SEO-Branche, andererseits aber, wenn man etwas genauer hinsieht, ist eigentlich nichts wirklich Neues oder gar Unverhofftes passiert. Google und das “Ranking-Update”, auch Pinguin Update genannt, welches am 24. April ausgerollt wurde, hat für viele Diskussionen in der Branche gesorgt.

Google und das “Ranking-Update” – nichts wirklich überraschend Neues

Allerdings wird die Analyse etwas erschwert, wurde doch nur wenige Tage zuvor das Panda 3.5 Update aufgesetzt. Was jetzt tatsächlich einen Einfluss auf das Ranking hatte – das Panda oder das Pinguin Update – ist also nicht ganz einfach zu erkennen. Dafür kristallisiert sich immer mehr heraus, dass es hauptsächlich Keyword- und Comment-Spammer erwischt hat. Laut Angaben von Google hatte das Update auf 3,1 Prozent der gerankten Domains einen Einfluss. Dabei muss aber ebenso betont werden, dass es auch, wie bei anderen Updates des Algorithmus, Gewinner gab. Also Seiten, die von den Korrekturen des Suchmaschinen-Algorithmus profitiert haben. Und ja, das Wort Korrekturen ist bewusst gewählt, denn unterm Strich sind es wirklich nur schon längst zum Teil von Google angekündigte und teilweise von der SEO-Gemeinde erwartete Feinjustierungen gewesen.

Anchor-Text werden unter die Lupe genommen

Im Prinzip läuft es dabei darauf hinaus, dass es hauptsächlich solche Seiten erwischt hat und die jetzt ein schlechteres Ranking haben, die immer noch denselben Anchor-Text in Backlinks nutzen. Das wiederum betrifft hauptsächlich in Massen gekaufte Backlinks, automatisierten Kommentar-Spam in Blogs und auf Foren sowie wahrscheinlich auch Artikelverzeichnisse, in denen mit ähnlichen Texten und wieder gleichen Anchor-Texten gearbeitet wurde. Diese Feststellung ist gewiss zutreffend für gekaufte Massen-Backlinks und auch entsprechend automatisierte Backlinks, wo immer derselbe Anchor-Text verwendet wurde. Schwieriger wird es schon mit der Analyse vom Comment-Spam: während die einen vermuten, dass es ebenfalls am Anchor-Text des Backlinks liegen könnte, vermuten andere, dass Google die Kommentarlisten selbst ins Visier genommen haben könnte.

Wer Strategien schon vorab entsprechend geändert hatte, profitiert nun

Beispielsweise, indem besonders lange Kommentarlisten mit auffälligen und einer Vielzahl von typischen Spam-Links angepeilt wurden. Oder aber, dass ebenso die Länge von Kommentaren eine Rolle spielen könnte. Aber selbst wenn sich herausstellen sollte, dass es nur Kommentare aufgrund des Anchor-Texts erwischt haben würde, wären SEO´s gut beraten, auch solche Details wie die eben genannten zum eventuellen Auffinden von Spam-Kommentaren und Kommentarlisten zukünftig zu berücksichtigen und entsprechend Vorsorge zu treffen. Wie sich also bemerken lässt, waren es in der Tat nur längst bekannte Absichten des Suchmaschinenriesen, die zum Tragen gekommen sind. Und gute Suchmaschinenoptimierung ist einfach mehr als automatisiertes Comment-Spamming mithilfe von Programmen oder das Kaufen von Bulk-Backlinks mit dem immerselben Anchor-Texten.

Die echten Verlierer

Auch die gibt es natürlich; also Seiten, die mit abrutschten und noch abrutschen, weil sie ein einziges Keyword in den Anchor-Texten verwenden, weil es gar nicht anders geht. Das betrifft vor allem solche Domains, wo es um die Corporate Identity geht, also dem Branden von Produkt- oder Domainnamen. Wer beispielsweise die Domain “Google” besitzt, wird diese auch gerne auf den Namen “Google” branden wollen oder gar müssen. Laut aktuellen Aussagen sind das wiederum rund 5 Prozent aller betroffenen Seiten, die so eher unfair abgestraft wurden. Und mit Sicherheit muss Google hier auch noch weiter an der Feinjustierungsschraube drehen, um solche Seiten nicht dauerhaft zu benachteiligen.

Viel Erfolg wünscht das Team von Fullseo.de

© Copyright Fullseo.de Seo Dienstleistungen. All Rights Reserved.