Archive for the ‘SEO FAQ’ Category

Seo Dienstleistungen

Seo Dienstleistungen

SEO Tools & Suchmaschinenmarketing-Tools

Wer schon länger Suchmaschinen- und Internet Marketing betreibt, weiß es schon längst: einfach eine Webseite auf deren Traffic zu analysieren ist längst nicht mehr genug. Auch wissen diejenigen, die schon länger in der Branche arbeiten, dass es zwar eine ganze Reihe von “Wunschfunktionen” gibt, die ein Analyse-Tool erfüllen sollte. Teilweise gab es die auch in der Vergangenheit, nur dann aber sehr teuer. Oder die technischen Möglichkeiten waren nicht ausgereift genug, dass entsprechende Daten generiert werden konnten. Hier hat sich sehr viel getan und auch für solche Webmaster, die Internet Marketing mehr als Hobby anstatt eines Vollzeitjobs betreiben, sind die Tools der neuesten Generation erschwinglich.

Zum Glück wurde der Yahoo Site Explorer eingestellt

Den Stein ins Rollen brachte eigentlich der Zusammenschluss von Yahoo und Bing. Als dieser vollzogen wurde, haben die Verantwortlichen dahinter einfach den Yahoo Site Explorer dichtgemacht. Unmengen von Analysedaten unterschiedlichster Tools beruhten allesamt auf dem Yahoo Site Explorer. Vornehmlich ging es dabei um Backlink-Daten. Das Positive daran war, dass Tool-Betreiber nun eigene Datenbanken anlegen mussten und von daher schon viel größere und umfassendere Daten liefern können, als sie zuvor über Yahoo bezogen werden konnten. Selbstverständlich ist die “normale” Webseitenanalyse immer noch sehr wichtig, doch gerade mit den aufsehenerregenden Google Algorithmus-Updates (Panda, Farmer, Penguin und Venice) wurde schnell klar, dass wesentlich mehr Daten benötigt werden, um eine Webseite immer noch gut in den SERPS platzieren zu können.

SEO und Internet Marketing ist mehr als eine Webseiten-Analyse

Natürlich gab es auch schon eine gute Anzahl verschiedener Keyword-Tools, welche die Position der eigenen Webseite zu bestimmten Suchbegriffen überwachte. Allerdings müssen bei den meisten Tools diese Keywords manuell eingegeben werden. Das bedeutet, Suchbegriffe, auf die der Webmaster selbst gar nicht kommt, kann er weder anzeigen noch auswerten lassen. Das hat sich spätestens mit dem umfassenden Tool der Kölner Xovi GmbH geändert. Master-Keywords werden dabei ebenso (regelmäßig) ausgewertet wie die Long-Tail-Keywords, also lange Phrasen, die von Suchern eingegeben werden. Und Xovi findet diese Suchbegriffe eigenständig. Ein zweiter wichtiger Bereich ist wie eh und je das Backlink-Profil einer Seite. Exakt hier waren mit dem Aus des Yahoo Site Explorers die Möglichkeiten schnell erschöpft.

Hohe Anforderungen an die Anbieter von SEO-Tools

Daher haben Betreiber wie Sistrix, Xovi oder Searchmetrics relativ schnell damit begonnen, entsprechende Datenbanken und Crawler selbst aufzubauen. Während einige Anbieter nunmehr auf der Strecke blieben – anscheinend hatten sie den Aufwand einfach unterschätzt oder sind zu teuer – hat sich hier ebenfalls wieder Xovi hervorgetan. Und es kommt noch besser: so ist es auch möglich, Konkurrenzwebseiten zu analysieren. Denn wer schon lange in der SEO- und Internet Marketing Branche unterwegs ist, weiß genau, dass es nicht darum geht, das Rad neu zu erfinden. Vielmehr sieht man zu, wie es die Konkurrenz schafft, und analysiert deren Seiten ebenfalls. Genau diese Analysemöglichkeiten bieten nun die neuen Tools ebenfalls mit an.

Umfangreiche Datenerhebungen – endlich!

Darüber hinaus bieten die Tools auch eine ganze Reihe von SEO Kennzahlen, mit denen nicht nur der aktuelle Stand abgefragt werden kann. Vielmehr werden Werte erstellt, die Tendenzen erkennen lassen, sodass man schneller reagieren kann. Es lässt sich also wunderbar erkennen: einfach nur zu überprüfen, woher ein Seitenbesucher kommt, wie lange er auf einer Seite bleibt, welche Unterseiten er besucht und was er im Anschluss unternimmt, das reicht längst nicht mehr aus. Das ist aber auch gut so. Denn im Gegensatz zum SEO vor ein paar Jahren, wo es reichte, solche Software zu kaufen, bei der man alles auf Autopilot stellen konnte, ist es inzwischen die ausgiebige Analyse, die wieder im Vordergrund steht.

Qualität statt Quantität im Netz

Einen Backlink-Generator zu kaufen, ist folglich der falsche Weg und dieser Schuss kann sogar nach hinten losgehen. Dadurch, dass umfassende Analysen notwendig sind, ist auch die Qualität bei den Webmastern, die SEO und Internet Marketing betreiben, wieder gegeben. Denn schließlich mögen die Zahlen erst verstanden und richtig gewertet werden, bevor man sich Strategien und Kampagnen überlegen kann, seine Webseite wieder besser zu platzieren. Zwar steigen so die Ansprüche an SEO enorm und viele Unternehmen können daher nicht auf die Dienste von SEO-Agenturen verzichten. Doch wie auch die anderen Medien ist das Internet inzwischen eine professionelle Plattform, die auch einen professionellen Arbeitsablauf fordert. Und hier ziehen dann die Internet-Macher mit den Usern an einem Strang: die Qualität des Webs ist ausschlaggebend, nicht die Quantität von Websites. Denn alle Internet-Nutzer wollen nur eins – Inhalte mit echtem Mehrwert.

Viel Erfolg wünscht das Team von Fullseo.de

Seo Dienstleistungen

Seo Dienstleistungen

Die schlimmsten Fehler eines Webdesigner / Werbeagentur

Bei der Wahl der bevorzugten Werbeagentur oder des vermeintlich kompetenten Webdesigners ist es wichtig, auch etwas “hinter die Kulissen” zu blicken. Daher ist es von Vorteil, sich möglichst viele Webseiten zeigen zu lassen, die von der Agentur oder dem Webdesigner erstellt wurden. Denn aus solchen Seiten kann sehr viel über die fachliche Versiertheit und das Know-how herausgelesen werden. Allerdings setzt das voraus, dass Sie eine Webseite entsprechend interpretieren können. Doch selbst wenn Sie nicht allzu viel über HTML oder Content Management Systeme (CMS) wissen, gibt es einige Ansatzpunkte, an denen Sie die Qualität der betreffenden Agentur oder des Webdesigners festmachen können.

Häufig gemachte Fehler beim Webdesign

Am naheliegendsten sind natürlich zunächst die augenscheinlichen Merkmale einer Internetseite. Google ist die wichtigste Suchmaschine, wenn es darum geht, eine Seite für Suchmaschinen zu optimieren. Dabei hat der US-Konzern gerade in den letzten Monaten einige tief greifende Updates seines Algorithmus vorgenommen. Diese Änderungen haben auch auf das sichtbare SEO einer Seite Einfluss. Überprüfen Sie die Texte der entsprechenden Seiten. Entweder haben Sie Texte vor sich, die sich flüssig lesen und einen informativen Mehrwert darstellen oder aber Ihnen fällt auf, dass sich bestimmte Wörter – Keywords – permanent wiederholen und der Text dadurch etwas holprig wirkt.

Oder es steht einfach nur Text auf einer Seite, der aber keinen wirklichen Nutzen bringt. Sicher, solche Seiten hatten bis vor ein paar Monaten noch sehr gute Positionierungen in den Suchmaschinen. Mittlerweile werden sie aber abgestraft. Ohne jetzt groß auf das “Warum” einzugehen, bedeutet das, dass die SEO-Agentur schlecht informiert ist oder immer noch die “Hauruck-Methode” versucht, was aber wieder auf mangelnde Erfahrungen in der jüngsten Zeit schließen lässt.

Viele Scripte, fehlende Tags usw. – die Liste ist lang

Darüber hinaus gibt es Portale, auf den Sie die Backlinks zu Seiten prüfen können. Diese zeigen dann auch den Anchor-Text zu den Backlinks an. Handelt es sich dabei vornehmlich um dieselben Phrasen, die dann auch noch die Haupt-Keywords darstellen, bedeutet das ebenfalls eine Optimierung, wie sie längst keine positive Wirkung mehr erzielt. Es gibt noch andere Dienste im Internet, so beispielsweise für die Ladezeiten einer Seite. Vielleicht mögen Sie denken, eine halbe Sekunde Unterschied ist nicht viel. Doch nur eine halbe Sekunde mehr Zeitaufwand zum Laden einer Seite kann über 24 Stunden mehr für Spiders zum Indizieren bedeuten. Fatal sind hier Skripte.

Viele vermeintliche “SEO-Profis” packen Seiten voll mit Analyse- und Tracking-Scripten in Java. Diese verlängern die Ladezeiten erheblich. Doch es gibt auch noch weitere Fehler, die oft begangen werden und die Kompetenz dieses Webdesigners oder dieser SEO-Agentur doch erheblich infrage stellen. Im nicht sichtbaren Teil einer Seite stehen die sogenannten Metatags. Das sind Befehle – oder zum Teil besser gesagt Richtlinien – für die Bots und Spiders der Suchmaschinen. Hier können erhebliche Fehler gemacht werden, die sich ebenfalls auf das Ranking auswirken. Ein Beispiel dafür wären die “noindex nofollow”-Tags.

Wissen und Können zählen, nicht die Zahl der vermeintlichen “SEO-Programme”

Ein ähnlicher Fehler wie zu viele Scripte auf einer Seite sind Images und Bilder, die in Seiten – oftmals Shops – eingebunden sind. Entweder wurden keine Thumbnails, also kleine Bilder für die Schnellansicht, angelegt und lediglich die Original-Bilder automatisch verkleinert oder die Formate für die Thumbnails sind viel zu groß gewählt. Beides beeinflusst die Ladezeiten enorm. Weitere Fehler, die bei Bildern gemacht werden, sind unzureichende Beschreibungen in den Metatags der Bilder. Diese sind jedoch für die Bots essenziell, da diese ansonsten nicht wissen, welche Inhalte in einem Bild gezeigt werden. Diese Liste an möglichen Fehlern könnte jetzt noch beliebig fortgesetzt werden, denn die Möglichkeiten, etwas falsch zu machen sind nahezu unbegrenzt.

In den letzten 15 Monaten ist nämlich das Webdesign hauptsächlich durch die Änderungen bei Google endlich dahin gehend verändert, dass Wissen und Erfahrung im Vordergrund stehen und nicht das blinde, teilweise automatisierte Abarbeiten verschiedener “Taktiken” mittels Software – das funktioniert glücklicherweise nicht mehr. Sollten Sie nicht wissen, wie Sie eine SEO-Agentur oder einen Webdesigner überprüfen können, suchen Sie sich eine Agentur Ihrer Wahl und lassen Sie einfach Arbeiten dieser anderen Agentur analysieren. So erkennen Sie auch schnell, ob Fachkompetenz und Verständnis für SEO gegeben sind.

Viel Erfolg wünscht Fullseo.de

Seo Dienstleistungen

Seo Dienstleistung

Überoptimierung NEIN DANKE

Wie bereits in anderen Artikeln erwähnt, haben die Panda, Farmer und Penguin Algorithmus-Updates von Google hohe Wellen in der SEO-Branche geschlagen. Es dürfte sich mittlerweile herumgesprochen haben, dass Qualität ein absolutes Muss für diejenigen ist, die sich im Internet-Marketing behaupten wollen. Dazu lässt sich im Internet sehr viel lesen – auch hier natürlich. Zumeist geht es dabei um hochwertigen und einmaligen Text (Unique Content) und die richtige Art und Weise der Verlinkung von Backlinks beispielsweise. Allerdings scheint es, dass sich nun sehr viele Webmaster und Agenturen vornehmlich genau auf diese Punkte konzentrieren und andere, ebenfalls zur Qualität einer Webseite gehörende SEO-Aspekte völlig außer Acht lassen. Dabei geht es um die Optimierung eines Internet-Auftritts im Allgemeinen. Viele meinen es nämlich zu gut und es kommt zu einer Überoptimierung.

Was ist Überoptimierung?

Die Verwunderung ist dann zumeist ebenfalls sehr groß. Da hat man alles befolgt, was sich so im Internet finden lässt über SEO (Suchmaschinenoptimierung) und dennoch kommt man einfach nicht nach vorne mit dem Projekt. Es scheint fast so, als ob die Domain auf den schlechteren Suchergebnisseiten der Suchmaschinen festgenagelt sei. Und dabei ist diese Annahme gar nicht einmal so falsch. Die Suchmaschinenbetreiber wollen genau solche Seiten aussortieren. Das “Warum” erklärt sich sehr einfach: Nimmt man es sehr streng, wäre es den Suchmaschinenbetreibern sowieso am liebsten, wenn niemand SEO betreiben würde. Schließlich sollen ja hochwertige Seiten angezeigt werden und nicht extra dafür optimierte Websites. Das ist wie mit der Mund-zu-Mund-Propaganda für das neu eröffnete Restaurant. Die Leute gehen aufgrund der Empfehlungen von Freunden und Bekannten dorthin, weil diese von diesem Produkt überzeugt und damit glaubwürdig sind. Dem gegenüber steht die Werbebotschaft. Würde dieses Restaurant in einem Werbespot von sich behaupten, das Beste zu sein, die wenigsten Konsumenten würden es wohl glauben. Es ist ja schließlich Werbung und die soll ja bekanntermaßen manipulieren.

Ebenso verhält es sich mit der Webseite im Internet. Optimierte Seiten sind letztendlich manipulierte Seiten. Und die Suchmaschinen wollen aber werthaltige Ergebnisse auf einer objektiven Grundlage bieten. Bei einer überoptimierten Seite klingeln dann quasi alle Alarmglocken im Suchmaschinen-Algorithmus und als Folge wird diese Seite nicht hochkommen, da es einfach zu offensichtlich ist, dass hier zugunsten eines besseren Rankings manipuliert bzw. optimiert werden soll. Jetzt kommt gewiss der Einwand “aber man muss doch eine Seite optimieren”. Das stimmt so auch. Noch. Denn wenn man sich die Entwicklung im Suchmaschinenmarkt ansieht, zielen diese mehr und mehr auf hohe Qualität ab. Längst werden Seitenbesucher mit einbezogen in dieses Konzept. Je länger ein Besucher auf einer Seite bleibt, desto sicherer ist, dass es sich um interessanten Text handelt. Und wer sich die “SEO-Methoden” etwas genauer ansieht, wird vermehrt feststellen, dass es Techniken sind, die eigentlich darauf abzielen, dass die Seitenbenutzer agieren: Backlinks sollten von ihnen als Empfehlung gesetzt werden, in den Social Medias verrät eine gute Vernetzung, dass die Seite akzeptiert, also interessant ist. Wäre sie es nicht, würde sie negativ bewertet oder gar gelöscht werden auf Betreiben der Nutzer hin.

Mittel- bis langfristig auf die richtigen Strategien setzen

Das, was dann übrig bleibt für den Seitenbetreiber, ist im Prinzip der allgemeine Aufbau und das Design. Sicher sind Alt-Texte und Anchor-Texte immer noch wichtig. Bei Bildern sagen sie den Suchmaschinen zum Beispiel, um welche Art von Bildern es sich handelt, denn die Suchmaschinen können keine Bilder erkennen, sondern müssen die dazugehörige Information verarbeiten. Dass es solche Strategien wie Backlinks setzen überhaupt gibt, ist so gesehen nur den schwarzen Schafen zu verdanken, die nicht wollen, dass ihre Seite fair nach ober kommt und die stattdessen um jeden Preis an erster Stelle stehen wollen. In der Folge kann es Google nicht übel nehmen, dass auch “anständige” Webmaster ihre Seiten in diese Richtung optimieren. Schließlich hätten sie sonst überhaupt keine Chance mehr. Dennoch ist die Marschrichtung längst vorgegeben. Und sie bietet Möglichkeiten im SEO gerade für diejenigen, die sich mit der Materie auskennen. So führt zwar nun kaum ein Weg an einer SEO-Agentur vorbei, weil SEO auch entsprechend zeitaufwendig geworden ist, allerdings ist es auch nicht mehr so einfach, nur mithilfe von Programmen eine Seite nach vorne zubringen. Das bedeutet, gerade die schwarzen Schafe fallen mehr durch das Raster und hochwertiger Content ist das Ergebnis.

Daher sollte eine Webseite auf keinen Fall überoptimiert werden, da es besonders einige der schwarzen Schafe immer noch nicht glauben, dass Google beispielsweise den Algorithmus tatsächlich geändert hat und eine Überoptimierung abgestraft wird. Hier liegt auch das Potenzial der SEO-Agenturen: sie wissen, wie eine Optimierung zu dosieren ist, damit die Seite nach oben kommt und nicht in den Rankings abstürzt. Unterm Strich bedeutet das, dass ebenso die Qualität wieder stark auf dem Vormarsch ist. Und Qualität bedeutet in nächster Konsequenz zufriedene und nicht verärgerte Internetnutzer. Der Vorteil für den Seitenbetreiber, der nach den Richtlinien der Suchmaschinen vorgeht und nicht übertrieben optimiert: die Kauflust steigt beim Kunden, weil der die Ergebnisse präsentiert bekommt, die er tatsächlich sucht. Schlussendlich profitieren also alle davon. So relativieren sich auch die Kosten der SEO-Agentur, denn die Gewinne, die der Kunde erzielen kann, übersteigen den Einsatz der Agenturen um ein Vielfaches. Aus diesem Grunde sagen auch wir: Überoptimierung? Auf keinen Fall!

Viel Erfolg wünscht das Team von Fullseo.de

Kombination unterschiedlicher Marketing-Strategien

Seo Dienstleistungen

Linkprofil Bereinigung

Mit dem Google Panda und Farmer Update hatte alles begonnen. Seither ist die SEO-Gemeinde in nahezu grenzenloser Unruhe. Und spätestens seit der Suchmaschinenriese das Penguin-Update hinterhergeschoben hatte im Frühjahr 2012, waren Webseiten-Betreiber vollends konfus. Denn mit dem Penguin-Update wurde nochmals ein großer Anteil an Domains abgestraft, die Panda zunächst gut überstanden hatten. Dabei war bis auf wenige Ausnahmen nicht sehr gut zu erkennen, was nun eigentlich der Auslöser für die Verschlechterungen im Suchmaschinen-Ranking hätte sein können. Doch schon bald war eine bis dahin unerlässliche SEO-Maßnahme identifiziert, die plötzlich nicht mehr für gutes Ranking, stattdessen aber für schnelles Abstrafen sorgte. Dabei geht es um die Backlinks, die im Laufe der Jahre gesetzt wurden. Seither ist klar, dass nun plötzlich eine Linkprofil Bereinigung stattfinden müsste.

Was ist eine Linkprofil Bereinigung?

Viele werden sich jetzt wundern, was denn eine Linkprofil Bereinigung sein könnte und noch am ehesten ein Löschen von Backlinks damit verbinden. Doch Vorsicht! Die notwendige Linkprofil Bereinigung muss nicht zwingend das Löschen eines Backlinks nach sich ziehen. Oft ist es bei der Linkprofil Bereinigung mehr als ausreichend, wenn nur der Anchor-Text, also der verlinkte, sichtbare Text, geändert wird. Denn genau hier hat Google angesetzt. Nach wie vor fördert der Suchmaschinen-Primus Websites, die eine gute Verlinkung aufweisen können. Doch ähnlich wie bei Seiteninhalten und Verweildauer der Nutzer auf einer Internet-Seite ist bei den externen Verlinkungen ebenfalls eine höhere Qualität gefordert.

Wie soll ich die Linkprofil Bereinigung durchführen?

Also stellt sich für den Seitenbetreiber zunächst einmal die Frage, wie sehen denn hochwertige Backlinks auf die eigene Webseite überhaupt aus? Und es ist wichtig, noch besser zu verstehen, was Google über Backlinks denkt. Denn dann fällt auch die Linkprofil Bereinigung erfolgreich aus und die Webseite kann schon bald wieder unter den Top 10 ranken. Immer noch gilt dasselbe Prinzip wie bei der Mund-zu-Mund-Werbung eines Restaurants, das eben erst eröffnet hat. Doch sollte das Backlink-Prinzip auch genauso angewendet werden. Anfangs dauert es ein wenig, bis neue Gäste kommen. Also beginnt man langsam, Backlinks zu setzen. Nach einer gewissen Zeit spricht es sich mehr und mehr herum, wie gut ein Restaurant ist, und wird durch diese Art der Werbung dann vielleicht sogar als Geheimtipp gehandelt. Also erfolgt auch bei den Backlinks ein kontinuierliches Anwachsen der Verlinkung.

Einfach das Prinzip der Mund-zu-Mund-Werbung auf das Internet übertragen

Jetzt heißt es auch, besonders aufzupassen, denn die folgenden Eigenschaften der Mund-zu-Mund-Propaganda hat Google nun ebenfalls auf die externe Verlinkung übertragen. Wenn 100 Menschen über ein Restaurant sprechen, dann verwendet jeder einzelne auch unterschiedliche Sätze, dieses Restaurant zu loben. Außerdem wird insbesondere dort darüber gesprochen, wo sich die Leute auch treffen. Genau diese beiden Eigenschaften müssen nun auf die Backlinks angewandt werden. Das betrifft neue Links ebenso wie die Linkprofil Bereinigung bestehender Backlinks. Denn hier liegen auch die Möglichkeiten von Google, nun Link-Manipulation zu erkennen. Noch bis vor Kurzem war es empfehlenswert, möglichst das Haupt-Keyword als Anchor-Text zu verwenden. Eine große Streuung der Wortwahl ist hier jetzt empfehlenswert. Ebenso müssen Links darauf hin überprüft werden, auf welchen Seiten sie zu finden sind.

Hohe Link-Diversity, also Wortvielfalt bei Backlink-Texten ist gefragt

Bei der Linkprofil Bereinigung geht es also zunächst darum, sämtliche verwendete Anchor-Texte zu überprüfen und gegebenenfalls zu ändern. Statt eines Haupt-Keywords sollten auch Abwandlungen aus der Keyword-Familie übernommen werden, bei einem bestimmten Prozentsatz der Backlinks ist es sogar ratsam, überhaupt kein Schlagwort zu verwenden. Eben so auch, wie es bei der mündlichen Empfehlung im echten Leben läuft. Als Nächstes gilt es dann, die schlechten Backlinkseiten von den guten zu trennen und bei schlechten Webseiten wirklich die Linkprofil Bereinigung durch Löschung des Links vornehmen. Auch hier ist der Vergleich mit dem echten Leben anwendbar. Es gibt Orte und Plätze, wo besonders viel miteinander geredet wird, entweder, weil es ein allgemeiner Treffpunkt ist oder weil sich eine “Fangemeinschaft” zu einem Thema zusammengefunden hat.

Das Bestimmen von guten und schlechten Backlink-Seiten

Letzteres wären im Internet themenrelevante Seite, die allgemeinen Treffpunkte die Social Medias im Internet, wie beispielsweise Video-Plattformen, Kurznachrichten-Dienste, soziale Netzwerke. Also kann hier schon wieder eine Vorabauswahl getroffen werden. Bei den Seiten, die durch dieses Raster fallen, kann nun noch die Wichtigkeit der Seite selbst überprüft werden. Hat diese einen hohen Page-Rank oder ist es im Gegenteil eine reine Spam-Seite, wo viele Schrott-Links zu finden sind etc. Entsprechend kann hier bei der Linkprofil Bereinigung eine weitere Aussortierung stattfinden. Natürlich beansprucht das sehr viel Zeit. Zwar gibt es zum Teil schon Software, die hier enorme Zeitersparnisse bringt, diese kostet zumeist aber viel Geld und unterm Strich ist die Linkprofil Bereinigung eine einmalige Angelegenheit. Deshalb macht es unter Umständen durchaus Sinn, hier ebenfalls eine SEO-Agentur damit zu beauftragen. Insbesondere, da diese die Relevanz-Bestimmung einer Seite viel besser durchführen kann. Schließlich besteht ein großes Fachwissen und ebenso Erfahrungen, die der Agentur helfen, einen Backlink schnell nach dessen Gewichtigkeit zu bewerten.

Viel Erfolg wünscht das Team von Fullseo.de

Social Media Marketing von Fullseo.de

Social Media Marketing von Fullseo.de

Was ist das Google Venice Update?

Begonnen hat alles irgendwie mit Google Panda. Das Algorithmus-Update läuft seit 2010 und sorgt wie kein anderes Update immer noch für viel Gesprächsstoff in der SEO-Welt. Als ob es damit nicht schon genug sei, folgte dieses Jahr das Google Pinguin Update. Dieses letzte große Update hat die SERPS (Suchmaschinen-Ranking-Positionen) noch mal zu richtig durchgeschüttelt. Dabei scheint es, dass diese beiden weitreichenden Änderungen im Suchmaschinen-Algorithmus dafür gesorgt hätten, dass weitere wichtige Updates und Besonderheiten völlig untergegangen sind. So hat es im Februar 2012 mit über 40 Änderungen so viele Änderungen bei Google gegeben wie noch nie in der Geschichte des Suchmaschinenriesen. Damit aber nicht genug: die lokale Suche erhielt mit Google Venice ebenfalls ein Update, dessen Ausmaß noch gar nicht richtig abzusehen ist.

Google Venice – Änderungen beim Optimieren von regionalen Seiten

Mit Google Venice scheint es nun, dass bei der lokalen Optimierung verstärkt SEO-Maßnahmen Einzug halten müssen, die bisher eher auf überregional bzw. global optimierte Seiten angewandt wurden. Damit einher geht gleichzeitig der Umstand, dass auch hier eine höhere Qualität wie nach Panda oder Pinguin erforderlich wird nach dem Google Venice Update. Davon betroffen sind sowohl Off-Page SEO als auch On-Page SEO. So muss wohl inhaltlich nun auch ein engerer, regionaler Bezug hergestellt werden nach Google Venice. In Verbindung mit hoher Qualität bedeutet das aber auch, Double Content zu vermeiden. In der Folge wäre es also ein Fehler, bestehende Texte einfach um einige regionale Begriffe zu ergänzen – insbesondere, wenn es sich um einen einzigen Begriff wie eine Stadt oder eine Region handelt. Denn schnell könnte Google hier auch ein Keyword-Stuffing vermuten. Also muss zusätzlich mit den verschiedenen Keywords und hochwertigen Texten und Inhalten mit lokaler Bedeutung gearbeitet werden.

On-Page SEO bei Google Venice nun ähnlich wie bei globalen Websites

Das bedeutet beispielsweise, Seitentitel um die Regionsbezeichnung zu ergänzen und diese auch vermehrt in H1, H2 und H3 Überschriften zu verwenden. Zudem wäre es nach aktuellem Erkenntnisstand auch sinnvoll, diese regionalen Bezeichnungen in die Seitenadresse zu integrieren. Zum Beispiel in Form einer Unterseite, welche die Region zum Thema hat. Zudem sieht es außerdem so aus, dass auch Nutzerfreundlichkeit einer Seite sowie interne Verlinkung eine höhere Gewichtung erfahren. Wer sich hier an die Vorgaben zur Gestaltung einer zeitgemäßen Seitennavigation hält, schafft automatisch auch eine gute interne Verlinkung. Nun ist das aber nur ein Teil der veränderten Optimierungsmaßnahmen, wie sie wohl zu erfolgen haben. Auch das Off-Page SEO muss nun mehr an die Strategien zu global optimierten Seiten angelehnt werden.

Aber auch Off-Page SEO von Google Venice betroffen

In Verbindung mit den großen Updates, Farmer, Panda und Pinguin, stellt Google Venice nun ebenfalls Ansprüche an natürlichen Backlink-Aufbau. Also nicht nur immer dasselbe Keyword im Anchor-Text verwenden und nicht nur die Index- oder Landing-Page verlinken, sondern auch weniger wichtige Unterseiten. Dazu gehört es auch, unterschiedliche regionale Titulierungen in einigen Anchor-Texten einzubauen, während andere womöglich völlig Keyword-frei bleiben. Neben der Verlinkung sind es mit Google Venice nun ebenso die Social Medias, die stärker in das SEO-Management einbezogen werden müssen. Das heißt, Auftritte auf Seiten wie YouTube, Facebook, Google+, Twitter, Xing usw. gehören nicht nur mehr zum guten Ton, sondern sind zudem auch der lokalen Optimierung in höchstem Maße dienlich.

Höhere Qualitätsansprüche bedeuten gleichzeitig mehr Aufwand

Als Fazit lässt sich feststellen, dass auch für die lokale Optimierung die Arbeit erheblich aufwendiger wird für die Seitenbetreiber nach Google Venice. Wie sich das auf die ganze “Local Search”-Landschaft auswirken wird, ist noch gar nicht absehbar, denn gerade die kleinen, regional fokussierten Seiten werden zumeist von einer Klientel betrieben, deren Werbe-Budget eher gering ist und die mit den großen Unternehmen kaum mithalten werden können. Gerade ein kleines Unternehmen spürt bereits ein kleines Plus an Mehrausgaben drastisch. Und SEO durch eigenes Gestalten und Betreiben von Seitenaufbau und SEO ist für viele bei den heutigen Ansprüchen an SEO auch kaum noch möglich, stellt SEO alleine doch schon ein über Monate oder gar Jahre sehr zeitintensives Unterfangen dar. Man darf also gespannt sein, inwiefern sich die Welt der regionalen Webseiten davon beeinflussen lässt. Gleichzeitig bedeutet das aber auch, dass so der Weg freigemacht wird für andere Webseiten.

Viel Erfolg wünscht das Team von Fullseo.de

Seo Dienstleistungen

Seo Dienstleistungen

Die Anzahl der verschiedenen Google-Dienste ist mittlerweile kaum noch überschaubar. Neben dem medialen Aufsehen, das Google+ im Jahr 2011 verursachte, sorgen im Hintergrund etliche weitere Anwendungen für eine schnellere und personalisiertere Vernetzung zwischen den Nutzern. Bei einem Blick auf das angebotene Spektrum fällt schnell auf, dass ein Großteil aller Google-Features auf eine Verbesserung der Webpräsenz abzielt, und damit auch auf eine Optimierung etwaiger Geschäftstätigkeiten.

Google-Places steht ganz im Zeichen dieser Anwendungen. Unter dem Slogan “Connecting you with the places you love” verspricht Google Places eine Vielzahl an Möglichkeiten zur Lokalisierung von Google-Nutzern und deren Einrichtungen.

Das Prinzip: Altbekanntes im digitalen Gewand
Die vielleicht gröbste Umschreibung von Google Places ist eine Gleichsetzung mit den bewährten Gelben Seiten. Die geschäftliche Orientierung der Anwendung wird damit gleich offensichtlich. Heißt in der Praxis: Betreiber von Geschäften können ihre Adresse sowie umfangreiche Eckdaten und Beschreibungen bei Google Places eintragen, um auf diese Weise stetig im Web vertreten zu sein. Angesichts der starken Nutzung von Online Suchdiensten oder auch nur dem Besuch von Google Maps erschließt sich die Sinnhaftigkeit des Systems beinahe von selbst.
Angesichts des heutigen Webs ist der Vergleich mit den Gelben Seiten jedoch ein Duell zwischen verschiedenen Gewichtsklassen. Google Places ist als dynamisches Gebilde mit weiterhin wachsendem Funktionsumfang zu verstehen, in dem reale Präsenzen schon heute ein recht vollständiges Abbild im Netz erstellen können. Neben jederzeit veränderbaren Kontaktdaten und Vorstellungen tragen außerdem Bilder und Videos zu einer bildlichen Präsentation bei, deren Werbeeffekt kaum diskutiert werden muss.
Abgerundet wird der digital-geographische Auftritt des eigenen Unternehmens letztlich durch die Verlinkung zur richtigen Homepage, deren Funktionsumfang nach wie vor über die Möglichkeiten von Google Places hinausgeht. Damit deutet sich übrigens auch ein weiterer Faktor bereits an: die sogenannten Synergie-Effekte.

Wie üblich: Symbiose mit weiteren Google-Diensten
Es ist sicherlich kein Zufall, dass zwischen vielen Google-Anwendungen Verknüpfungsmöglichkeiten bestehen, mit deren Hilfe die Effizienz der einzelnen Komponenten überproportional verstärkt werden kann. Im Falle von Google-Places liegt die Kombination mit Google Maps auf der Hand, da die wohl bekannteste Online Landkarte der heutigen Zeit den optimalen Nährboden für den Einsatz von Google Places darstellt. Um die Auffindbarkeit weiterhin zu erhöhen, bietet sich außerdem die Verwendung von Google AdWords an, sodass die bei Places eingetragene Präsenz auch bei herkömmlichen Suchanfragen über Google besser vertreten ist, was zugleich den Einsatz von weiteren Diensten wie etwa Analytics impliziert.

Der Endeffekt: Effizienz durch die Community
Eingetragenen Präsenzen in Google-Places kann durch die schon erwähnten Werbemaßnahmen zu höheren Besucherzahlen verholfen werden. Die Inanspruchnahme von Google AdWords ist allerdings nur eine Methode, die Bekanntheit über das Netz zu verbreiten – das Stichwort lautet nämlich Web 2.0. Unter der Ägide der sozialen Netzwerke entstehen nämlich mitunter unverhoffte Schübe in Sachen Bekanntheit und Webpräsenz, die alleine Systemen wie Facebook oder Google+ zu verdanken ist. Bei diesen besteht seitens der privaten Nutzer nämlich längst die Möglichkeit, besuchte Orte von mobilen Geräten aus mitzuteilen und natürlich auch mit Kommentaren zu versehen. Die Online-Welt muss in diesem Fall folglich nur als Brückenschlag zwischen realen Besuchern und realen Geschäften dienen, ganz im Sinne der guten alten Zeit, wenn auch ein wenig fortschrittlicher.

Viel Erfolg wünscht das Team von Fullseo.de

Suchmaschinenfreundlichkeit

Das Internet wächst rasant. Jeden Tag entstehen neue Websites mit Inhalten zu allen erdenklichen Themen. Sie stellen eine unerschöpfliche Auswahl für die Suchmaschinen dar, die ihre Algorithmen immer weiter verfeinern, um den Usern wirklich die bestmöglichen Inhalte auf den obersten Listenplätzen der Suchergebnisse präsentieren zu können. Einfach eine Website ins Netz zu stellen und darauf zu hoffen, dass sie »irgendwie« gefunden werden wird, das funktioniert schon lange nicht mehr. Jeder Webmaster sollte sich deshalb vom ersten Tag an über das Thema Suchmaschinenfreundlichkeit Gedanken machen.

Um eine Seite wirklich suchmaschinenfreundlich zu gestalten, sollte man nicht zögern, die Dienste einer professionellen SEO-Agentur in Anspruch zu nehmen. Die Algorithmen der großen Suchmaschinen wie Google ändern sich ständig. Was heute suchmaschinenfreundlich ist, muss es morgen noch lange nicht sein. Diese Entwicklungen im Auge zu behalten und darauf zu reagieren, das ist ein Fulltime-Job, den Webmaster auslagern sollten, damit sie sich auf ihre Kernkompetenzen konzentrieren können.

In den Suchmaschinen »oben« stehen – was heißt das eigentlich?

Wer im Internet präsent ist und bei Google seinen eigenen Namen eingibt, der hat gute Chancen, sich auf Platz 1 der Suchergebnisse zu finden, sofern er keinen allzu häufigen Namen trägt. Doch steht er deshalb bereits »bei Google ganz oben«? – Definitiv nein. Jedenfalls nicht mit den Produkten, Dienstleistungen oder Informationen, die er über das Internet anbieten möchte. Wer etwas Bestimmtes sucht, der gibt bei Google nicht den Namen des Anbieters ein (den er meist noch gar nicht kennt), sondern fragt gezielt nach Produkten oder Dienstleistungen. Wessen Website dann ganz oben angezeigt wird, der hat die Nase vorn und die Besucherströme auf seiner Seite.

Fünf Tipps zur Steigerung der Suchmaschinenfreundlichkeit

* Domain: Alles beginnt mit der Auswahl der richtigen Adresse. Am besten berät man sich schon vor dem Kauf einer Domain mit einem erfahrenen SEO, der über viele Möglichkeiten verfügt, eine Internetadresse auf Themenrelevanz und Suchmaschinenpotenzial hin zu analysieren. Da die Domain von den Suchmaschinen als sehr starker Hinweis auf den Inhalt der Seite gewertet wird, sollte man diese Entscheidung keinesfalls übereilt treffen.

* Benutzerfreundlichkeit: Beginnt man mit dem Aufbau der Seite, sollte man von Anfang an auf Benutzerfreundlichkeit achten. Sind die Ladezeiten zu lang oder funktionieren einige Features nicht wunschgemäß, dann wird die Seite definitiv nicht ganz oben gelistet werden.

* Keywords: Vor der Schaffung von Content (Seiteninhalt) sollte unbedingt eine Keywordanalyse durchgeführt werden. Unter welchen Suchbegriffen sollte die Seite sinnvollerweise gefunden werden, um die richtigen Leser zu gewinnen? Dabei sollte man sich in den User hineinversetzen und auch an umgangssprachliche Wortkombinationen denken. Hat man eine Liste zusammengestellt, dann geht es ans Verfassen von Texten, in denen die gefundenen Keywords möglichst mehrmals enthalten sein sollten.

* Links: Eingehende Links werden von den Suchmaschinen als Empfehlung für eine Seite gewertet und lassen sie im Rang steigen. Dies gilt umso mehr, wenn die Links von Seiten kommen, die bereits sehr suchmaschinenstark sind und eine hohe Reputation besitzen.

* Sauberkeit: Zweifelhafte Tricks tragen nicht zur Suchmaschinenfreundlichkeit bei und sollten gemieden werden. Dazu gehören unsichtbare Keywords (rote Schrift auf rotem Grund) oder auch die Beteiligung an automatischen Linktauschsystemen.

Viel Erfolg wünscht Ihnen Ihr Seo Dienstleister Fullseo.de

Seo Dienstleistungen

Seo Dienstleistungen

Was sind Sitelinks?

Sitelinks sind diejenigen Links, die unter manchen Google-Suchergebnissen erscheinen. Wer beispielsweise nach Amazon sucht, bekommt unter der Hauptseite auch als Links die Seiten “Bücher”, “Elektronik & Foto”, “Sonderangebote”, “DVD & Blu-ray” sowie “Küche & Haushalt” angezeigt. Das geschieht nicht bei jeder Seite, sondern nur bei wirklich viel besuchten Webshops oder meist Firmenhomepages.

Wie entstehen die Sitelinks?

Google selbst platziert diese Links, um den Nutzern die Navigation zu erleichtern. Die Google-Robots analysieren die interne Link-Struktur der Seite und platzieren diejenigen Unterseiten nochmals exklusiv in den Ergebnislisten, die besonders häufig aufgerufen werden. Damit haben es User leichter, sofort auf eine gewünschte Unterseite zu gelangen, auf die man zum Beispiel beim oben zitierten Amazon erst über ein etwas umständliches Menü kommt. Es stellt sich natürlich die Frage, ob Webmaster das Anzeigen dieser Links in der Ergebnissuche beeinflussen können, und wenn ja, wie das geschieht. Offensichtlich sind zwei Faktoren entscheidend: wie oft die entsprechende Unterseite aufgerufen wird und wie die Seite von der Hauptseite aus verlinkt ist. Den zweiten Faktor können Webmaster beeinflussen.
Google zeigt die entsprechenden Links an, wenn sie offensichtlich sehr hilfreich für die Nutzer sind. Im Falle von Amazon bedeutet das, die oben erwähnten Seiten werden mit Abstand am häufigsten aufgerufen. Es sind ja nur 6 von insgesamt 34 Unterkategorien bei Amazon. Google nutzt für die Anzeige bestimmte Algorithmen, die natürlich dem Gusto der Google-Programmierer folgen und die wie immer geheim sind. Wie sinnvoll sie sind, bleibt dahingestellt. Es wäre zum Beispiel zu hinterfragen, ob nicht vielmehr diejenigen Unterseiten angezeigt werden müssen, die eventuell besonders bedeutsam sind – wie ein Impressum bei wichtigen Seiten – oder die besonders schwer zu finden sind. In den Webmastertools bei Google wird ausdrücklich erklärt, man lasse diejenigen Seiten anzeigen, die nach Auffassung von Google wichtig sind. Die unwichtigen Unterseiten werden weggelassen, um Gerechtigkeit in den Suchergebnissen zu schaffen. Amazon würde sonst die ersten drei Seiten einer Google-Ergebnissuche einnehmen.

Funktionsweise der Site Links

Im Jahr 2011 (Oktober) sind diese Links automatisiert, Google arbeitet jedoch daran, sie a) algorithmisch zu verbessern und b) Webmastern möglicherweise ab 2012 die Möglichkeit zu geben, selbst solche Links zu veranlassen. Bisher gibt es nur die Variante, sie als Webmaster auf der eigenen Seite zu unterdrücken. Natürlich enthalten die Webmaster-Tools von Google auf bewährte Weise viele Hinweise, was man tun kann. Bewährte Vorgehensweisen sollen eingehalten werden, wie alt-Text und Ankertext interner Links recht kompakt und informativ zu halten und sich bei der internen Verlinkung sowie beim Content der Unterseiten nicht zu wiederholen (strengster duplicate content auch auf der eigenen Seite). Die Unterdrückung der Sitelink-URLs ist auch möglich. Manch ein Webmaster findet vielleicht gerade den von Google ausgewählten Link gar nicht so passend. Dieser kann abgewertet werden, die Google-Robots werden dadurch darüber informiert, dass der Webmaster eben diese Sitelink-URL nicht zur ersten Wahl zählt. Dass sie nie wieder erscheint, wird nicht garantiert. Es ist aber wahrscheinlich.
Die Abwertung erfolgt, indem in den Webmaster-Tools die Seite angeklickt und auf ihrer Konfiguration auf “Sitelinks” geklickt wird. Dort kann die URL angegeben werden, die nicht mehr als Site Link erscheinen soll. Das Ergebnis zeigt sich nach einigen Wochen, wie bei jeder SEO-Maßnahme. Die Abwertungen bleiben übrigens nur für 90 Tage in Kraft, danach muss sie der Webmaster wahrscheinlich erneut vornehmen.

Was Webmaster im Oktober 2011 tun können

Es ist durchaus möglich, eine bestimmte URL der eigenen Seite zu präferieren. Denn Sitelink-URLs sind meist diejenigen, die neben ihrem häufigen Aufruf und ihrer intern perfekten Verlinkung auch einen Namen haben, der mit Begriffen auf der Site selbst ziemlich gut korrespondiert. Die Begriffe müssen hierbei nicht identisch, Google sucht schon lange nach Ähnlichkeiten und Synonymen. Wenn eine Autoseite sich also mit Motoren und Motorenöl und Motorenreparaturen befasst und das im Content in verschiedenen Synonymen auftaucht, könnten die Sitelink-URLs für “Motorenöl” und Motorenreparaturen” in der Google-Suche erscheinen.

Seo Dienstleistungen

Seo Dienstleistungen

Was versteht man unter PageRank

Unter PageRank versteht man einen Link – Analyse Algorithmus und ist benannt nach Larry
Page. Der Name” PageRank” ist ein Warenzeichen von Google. Das Verfahren PageRank wurde patentiert. Allerdings ist das Patent der Stanford University
und nicht Google zugeordnet worden. ( US Patent 6,2825,999) Google hat nur exklusive
rechte an dem Patent der Stanford University.
Die Universität erhielt dafür 1.800.000 Aktien von Google im Gegenzug für die Nutzung des
patentes. Die Aktien wurden im Jahr 2005 für 336.000.000 Dollar verkauft.

Im PageRank spiegelt sich unsere Auffassung einer Bedeutung für eine Webseite unter der
Berücksichtigung von mehr als 500 Millionen Variablen und 2 Milliarden Begriffe.
Ein PageRank ergibt sich aus einem mathematischen Algorithmus auf die Grafik von allen
World Wide Web Seiten. Der Rangwert zeigt die Wichtigkeit einer Bestimmten Seite.
Ein Hyperlink zu einer Seite unterstützt den Rangwert. Der PageRank ist rekursiv abhängig
von der Anzahl der eingehenden Links und der PageRank Metrik. Eine Webseite die mit
vielen Seiten mit hohen PageRank verknüpft sind, erhält selber auch einen höheren Rang.

Geschichte des PageRank

PageRank wurde an der Stanford University von Larry Page (daher der Name Page-Rank ) und
Sergey Brin im Rahmen eines Forschungsprojektes als eine neue Art von Suchmaschine entwickelt.
Sergey Brin hatte die Idee, Informationen im Web zu einer Hierarchie von “Link-Popularität” zu machen:
eine Seite wird höher eingestuft, um so mehr Links auf sie verweisen.
Er war Co-Autor von Rajeev Motwani und Terry Winograd. Das erste Schriftstück über das
Projekt, beschriebt den PageRank und den ersten Prototyp für die Suchmaschine Google, die 1998 veröffentlicht wurde:

Kurz darauf gründete Page und Brin Google Inc. Das ist das Unternehmen
hinter der Google-Suchmaschine. Während nur einer von vielen Faktoren, das Ranking
der Google-Suchergebnisse bestimmen, bietet der PageRank die Grundlage für alle von der
Google-Websuche Tools.

PageRank ist eine Situationsanalyse, von Eugene Garfield in den 1950er Jahren entwickelt
an der University of Pennsylvania, und wird durch Hyper-Suche von Massimo Marchiori an der
Universität von Padua entwickelt, beeinflusst.
Im selben Jahr wurde PageRank eingeführt (1998). Jon Kleinberg veröffentlichte seine
Arbeiten auf Hits.

Eine kleine Suchmaschine namens “RankDex” von IDD Information Services, die von Robin Li
entworfen wurde, hatte bereits 1996 eine ähnliche Strategie für Standort-Scoring und Page-Ranking entworfen. Die Technik in RankDex wurde bis 1999 patentiert und später, als Li Baidu in China gegründet. Einige Li Arbeiten wurden von Larry Page als US-Patente für Google referenziert und verwendet.

Viel Erfolg wünscht Fullseo.de

Was ist ein Titel-Tag?

Der Titel Tag ist mit eines der wichtigsten Faktoren, um in den Suchmaschinen eine
höhere Positionen zu erhalten.

Ein Beispiel für den HTML Code

</head>
<TITTLE>Firmenname – Begriffe zur Seite</TITLE>
</head>

Ein Title Tag setzt man immer in den Abschnitt Head jeder Seite.
Der Title Tag wird in vielen Fällen von Content Management Systemen oder einigen Tools

auf Grund des Dateinamens beim speichern generiert.
Es erscheinen dann eigenartige Begriffe wie” Home.html” oder ” kontakt.html”. Es sind
oftmals Anfänger im Webdesign , die diese Fehler begehen. Auch einige von den Profis im
Webdesign vernachlässigen den Title Tag und erkennen meistens nicht das Potenzial,
welches der Title Tag im Suchmaschinen Ranking mit sich bringt.
Alle der Suchmaschinen benutzen den TitleTag, um eine Webseite zu analysieren. Der Title
Tag sollte aber so gewählt werden, dass er den Benutzer auch zum klicken animiert.
Der Title Tag gehört zu den wichtigsten Faktoren bei der Suchmaschinen Indexierung. Bis
jetzt legen Suchmaschinen noch hohen wert auf diesen Tag und vergleichen es mit dem
eigentlichen Text der Webseite.

Es gibt die verschiedensten Grundsätze und Tipps zum Title Tag erstellen. Auf keinen Fall
sollte er zu kurz oder zu Lang sein. Um Langfristig in den Suchmaschinen zu bleiben
vermeidet man am besten viele Wortwiederholungen, mehr als 200 Zeichen langen text und
nur Großschreibung verwenden.
Ein guter Title Tag sieht wie folgt aus:

<Title>Firmenname – Stichwort 1 Stichwort2 Stichwort3</Title

wenn Ihre Firma “Autoteile AG” heisst und die Firma verkauft Autozubehör, würde der Title

Tag so aussehen.

<Title>Autoteile AG – Autospiegel Reifen und Lenkrad</Title>

Der Title Tag muss genau definierte Begriffe aufweisen, welche wiederum im Text vorkommen
müssen. Die wichtigsten Begriffe müssen immer zuerst stehen.
Die Länge des Title Tages spielt dabei keine wichtige rolle, da bei den meisten
Suchmaschinen der Tag nach 60 – 150 Zeichen abgeschnitten wird.
Durch die Verwendung von Kommas und Bindestrichen erkennen die Suchmaschinen dies als
Trenner innerhalb des Tags.
Man kann einen Title Tag erst setzen, wenn der Text für das Webseitenthema fertig
ausgearbeitet worden ist, denn der Title Tag hat nur optionale Auswirkungen für
Suchmaschinen, wenn er zum Text passt. Deshalb sollte man den Text einer Webseite von
professionellen SEO Copywriter erstellen lassen.

Viel Erfolg wünscht das Team von Fullseo.de

© Copyright Fullseo.de Seo Dienstleistungen. All Rights Reserved.