Auf der Suche nach der Wahrheit: SEO-Mythen

SEO Mythen

© Elnur – Fotolia.com

Willkommen im Jahr 2013 und zurück in unserem Blog.

Um das Thema Suchmaschinenoptimierung ranken sich ja seit Jahren diverse Mythen. Das sind nicht nur die Klassiker wie „SEO ist tot“ oder „Meta-Keywords sind wichtig“, sondern noch ein paar andere Aussagen, die unkommentiert im Web und auf SEO-Konferenzen kursieren. Ich habe in letzter Zeit mal ein paar Fragen bzw. Aussagen gesammelt und hier für euch zusammengetragen. Diskussionen über die einzelnen Punkte sind ausdrücklich erwünscht!

Robots-Angaben dürfen nur im head-Bereich des HTML-Dokuments stehen

Das ist nicht der Fall und kann für Webmaster blöde Folgen haben: Wenn es Nutzern erlaubt ist, HTML-Content auf der Website zu platzieren, kann dadurch eine Seite auf z.B. Noindex gesetzt werden (oder was auch immer der Nutzer als Code einschleust). Warum folgt Google auch Robots-Angaben im Body, wenn die Platzierung im Head-Bereich stattfinden sollte? Weil es genug Websites gibt, die nicht syntaktisch korrekt aufgebaut sind und z.B. mehrere head-Bereiche enthalten – oder auch mal gar keinen.

Ein Text muss immer mindestens 300 Wörter haben

Ich glaube, die Person, die diese Regel aufgestellt hat, ist auch für „bei gekauften Artikeln müssen immer zwei externe Links und ein Link zu Wikipedia enthalten sein“ verantwortlich. Die Länge eines Textes hat erstmal wenig mit der Qualität einer Seite zu tun. Lieber so viel schreiben, wie einem zu einem Thema einfällt, als zwanghaft versuchen, noch die letzten 100 Wörter bis zur magischen 300er Grenze zu füllen. Texte sollen für den Nutzer geschrieben sein und die von ihm gesuchte Information enthalten. Wenn man das in 30 Wörtern erreichen kann, sollen nicht zusätzliche 270 Wörter mit irrelevanten Informationen hinzugefügt werden.

Es ist eine gute Idee, eine intern gut verlinkte URL per robots.txt zu blockieren

Man nehme viele interne Links, streue dadurch den Linkjuice auf eine bzw. mehrere URL(s) und blockiere diese dann per robots.txt. Das klingt nicht sonderlich sinnvoll, denn die (Link-)Stärke dieser URL geht durch die Crawling-Blockierung komplett flöten. Alle von dieser Seite aus angelinkten URLs profitieren von der Stärke der URL leider gar nicht. Deshalb: Nicht machen!

Webkataloge gehören zum natürlichen Linkmix dazu

Schon recht. Der Lieblingssatz jeder Agentur, die aus Mist Geld machen will. Oft hört man in diesem Zusammenhang, „Aber der Wettbewerber hat auch viele Webkataloge und rankt gut. Sein Backlinkprofil ist demnach natürlich“. Natürlichkeit nur anhand von Domains festzumachen, die das Ranking manipulieren, geht nur solange gut, bis diese Domains abgestraft werden.
Es mag zwar einige gute und relevante Webkataloge geben, aber sich gleich in 100 eintragen zu lassen, ist nicht zielführend.

Seiten, die per robots.txt blockiert sind, erscheinen nicht im Google-Index

Die robots.txt hat nichts mit Indexierung zu tun, sie regelt einzig und allein das Crawling von URLs. Sprich der Content einer blockierten Seite kann nicht gecrawlt werden, Google hat aber über eingehende Verlinkungen ein paar Informationen über diese URL. Übrigens tauchen durch die robots.txt blockierte URLs auch in der Gesamtanzahl an indexierten Seiten in den Google Webmaster Tools auf.

Man kann nur für Keywords ranken, die auch auf der Seite vorkommen

Ranken kann man auch, wenn man semantisch ähnliche Begriffe auf der Seite hat. Zwar rankt man unter Umständen nicht in den Top10, aber ranken kann man trotzdem. Es gibt einige Seiten, die beispielsweise trotz robots.txt Blockierung für einen Suchbegriff in den Top20 stehen. In diesem Fall kann Google nicht wissen, ob das Suchwort auch auf der Seite vorkommt.
Nicht vergessen: Auch Ankertexte können dazu führen, dass eine Seite für ein Keyword rankt, welches nicht auf der Seite selbst vorkommt.

Google hat Linktausch nicht auf dem Radar

Speziell wenn man noch das Attribut rel=“linktausch“ setzt, ist Linktausch absolut Google-konform! Dann ziehen die Links sogar noch mehr als gekaufte oder selbstgesetze Links in Foren! Aber mal im Ernst: Linktausch ist genauso eine Linkaufbautätigkeit wie das Kaufen eines Links und aus Sicht von Google besteht kein Unterschied.

Mehr indexierte Seiten zu haben ist besser

Pauschal ist das weder gut noch schlecht. Sofern es sich um hochwertige Seiten handelt, ist dagegen sicher nichts einzuwenden. Einfach wahllos neue URLs zu erstellen (hier darf man auch nicht vergessen, dass manchmal aufgrund von Bugs im CMS automatisch neue URLs generiert werden), sollte allerdings nicht das Ziel der Übung sein.

Mehrere Links von derselben Domain zu haben, hat keinen Mehrwert

Wenn man nur Links von Domains erhält, auf denen nur der Bot unterwegs ist, unterschreibe ich das sofort. Aber wenn ich die Möglichkeit habe, (zeitlich versetzt) die Leserschaft einer Seite immer wieder aufs Neue zu erreichen, habe ich einen garantierten Mehrwert in Form von Nutzern, die über diese Links auf meine Seite kommen.

Man kann eine URL nur für maximal ein Keyword optimieren

Pauschal den Daumen zu heben oder zu senken ist hier nicht möglich. Erstmal muss geklärt werden, was man unter einem „Keyword“ überhaupt versteht. Semantisch ähnliche Begriffe kann man problemlos auf derselben URL optimieren. Solange dieselbe Nutzererwartung hinter der Anfrage steckt, sind weniger Landing Pages auf jeden Fall mehr. Sonst landen wir wieder bei „Mehr indexierte Seiten zu haben ist besser“.
Was waren es doch für qualitativ hochwertige Texte über „Produktname“, „Produktname online kaufen“, „online kauf Produktname“, die man vor mehreren Jahren erstellt hat.

Link ist Link

Wie schlimm wäre es, wenn diese flappsige Ausspruch stimmen würde! Ja, solange mir ein Link relevanten Traffic auf die Seite holt, ist mir jeder Link recht. Und das unabhängig davon, ob er follow ist oder nicht. Trotzdem sind Links von unterschiedlichen oder auch derselben Domain nicht gleich wertvoll. Denn auch die Platzierung eines Links hat einen großen Einfluss auf den Traffic, den man über einen Link bekommen kann.

Keyworddomains sind der Schlüssel zu guten Rankings

Grundsätzlich ist es nicht ganz trivial zu erkennen, ob jemand, der nach „keyword1“ sucht, die Domain www.keyword1.com oder das allgemeine Suchwort im Sinn hatte. Aber es lässt sich für Google herausfinden.
Wenn z.B. Suchvolumen für den Begriff vorhanden ist, bevor es eine passende Exact-Match-Domain für diesen Term gab, ist das ein Zeichen dafür, dass es sich bei dem Suchbegriff nicht um eine Suche nach genau dieser Domain handelt. Und wenn das Suchvolumen nach Erscheinen dieser Domain nicht (nachhaltig) ansteigt, ist es auch ein Signal dafür, dass nicht die Domain gesucht wurde.
Nach „Airbnb“ hat z.B. 2002 noch niemand gesucht, heute dafür aber umso mehr Menschen. Ein gutes Signal, dass Airbnb.com für „Airbnb“ relevant ist.

Keyworddomains können wunderbar funktionieren, wenn sie gut projektiert sind. Und wenn Leute auch noch nach keyword.tld suchen, ist das ein sehr gutes Zeichen, welches eine gute Positionierung – auch für ein umkämpftes Keyword – rechtfertigt. Auch wenn es Suchanfragen nach „domainname + generisches Suchwort“ gibt, ist das ein Zeichen für eine Marke.
Nur eine Keyworddomain zu haben, ist allerdings nicht der Schlüssel zu nachhaltigem Erfolg.

Ohne das Keyword in der URL zu haben kann man nicht ranken

Sicher ist es schön, ein Keyword in der URL zu haben. Die URL ist mit als Meta-Angabe zu sehen: Wenn ich nur die URL im Netz verlinkt sehe, hilft mir deren Name/Bestandteil dabei, den Inhalt der verlinkten Seite einzuschätzen. Ein Keyword in der URL zu haben ist allerdings nicht zwingend erforderlich. Sonst würde sowohl Idealo mit seinen Kategorien kaum ranken, als auch Startseiten nur für den Domainnamen gefunden werden können.

Externe Links auf meiner Zielseite schaden dem Ranking dieser Seite

In einer wissenschaftlichen Arbeit beweise ich auch meine Fachkenntnis dadurch, dass ich nur mich selbst referenziere. *Ironie*
Man kann mit Sicherheit überlegen, ob es sinnvoll ist, seinen Wettbewerber zu verlinken, aber „neutrale“ Quellen dürfen es schon sein.

SEO und User-experience kann man nicht kombinieren

Baue einfach die coolste Seite für Suchmaschinen: Fragt dazu doch einfach mal Matt Cutts 🙂 Oder euren Produktmanager. SEO und Usability sollten auf keinen Fall gegeneinander arbeiten, sondern die Schnittmengen zwischen beiden Disziplinen erkennen und sich gegenseitig befruchten. SEO gegen den Willen des Produktteams durchzusetzen ist wie ein Kampf gegen Windmühlen.

Onpage ist nicht wichtig, Links sind das was zählt

Ich sehe es so: Onpage ist Pflicht, Links sind die Kür. Und auch an der Kür sollte nicht gespart werden 🙂
Über die Methode Brechstange kann man eine Domain auch zu guten Rankings verhelfen, aber effizient eingesetzt sind die (finanziellen) Mittel dabei nicht.

Das war es dann erstmal von mir. Fallen euch noch ein paar SEO-Mythen ein? Oder seht ihr Punkte komplett anders?

Diesen Artikel teilen



Kommentare (11)

  • Sharif Antworten

    Ja, mir fällt noch eine ein. xD. Die meisten behaupten, dass man am Besten Links von Webseiten braucht, die Pagerank acht haben und am Besten eine Domainauthority von 999 haben überspitzt gesagt. Das ist nicht so, selbst mit Lowlevel-Links lässt sich eine erstklassige Platzierung, sogar Platz 1 erreichen.

    • Stephan Czysch Antworten

      Es gibt auch SEOs, die ohne Links auf Platz 1 für „starke“ Keywords kommen 😉

  • SparFuchs Antworten

    Super, danke Dir. Manche Sachen habe ich echt nicht gewusst. Alles in allem geht es bei SEO offensichtlich darum das keine Strategie wirklich total richtig oder falsch ist. Man muss einfach gut in der Mitte bewegen.

    Grüße!

  • Demir Antworten

    Zu zwei Punkten möchte ich noch was ergänzend sagen:

    – Externe Links auf meiner Zielseite schaden dem Ranking dieser Seite

    Externe Links sollte man natürlich sehr überlegt einsetzen, damit man nicht viel vom sogenannten „Linkjuice“ nach außen gibt. Achten sollte man, dass diese Links nicht an schlechte Webseiten gehen. Im Webmaster-Tool von Google steht zB in den Richtlinien, dass man nicht mehr als 100 Links / Webseite setzen sollte. Ich finde aber das Links nach außen einfach zum Internet gehören und sich dadurch ein besseres Vertrauen zu den Usern entwickelt. Auch Suchmaschinen bewerten ausgehende Links zu thematisch passenden Seiten gut.

    – SEO und User-experience kann man nicht kombinieren

    Webseiten sollten primär für User erstellt werden. Denn eine Webseite, die nur für Suchmaschinen konzipiert wurde, wird sich nicht lohnen, wenn die User nach einigen Sekunden wieder verschwinden, da die Webseite sehr „User-unfreundlich“ wäre. Daher sehr gut wie Sie gesagt haben, SEO und Usability sollen sich gegenseitig befruchten.

    • Stephan Czysch Antworten

      Hallo Demir,

      wer kommt denn auf die Idee, Links auf „schlechte“ Seiten zu setzen (freiwillig)? Das mit den 100 Links würde ich nicht als in Stein gemeiselt ansehen. Selbst wenn jetzt 100 Kommentare mit 100 externen Links hier bei dem Beitrag zusammenkommen sollten, wird der Beitrag nicht schlechter gefunden werden.
      Man sollte seine Nutzer nicht mit zu vielen Links überfordern – sonst geht es so aus wie vor dem Regal im Supermarkt.

      Bzgl SEO & Usability: Schön, dass du das auch so siehst. Nochmal am Beispiel von internen Links: Hier geht es ja auch darum, den Nutzer auf der Seite zu führen (und ihm weitere relevante Seiten vorzuschlagen).

      LG Stephan

  • Thomas Antworten

    Schöner Artikel der es auf den Punkt bringt. Einfach mal Hirn einschalten und vernünftig/sauber projektieren, dann kommt der Rest von (fast) alleine. Interessant ist aber auch, dass viele der besagten „SEOs“ trotz Themenrelevanz Links ablehnen, da ihnen der SI nicht hoch genug ist…

    • Stephan Czysch Antworten

      Das kenn ich. Lieber einen Link von einer Domain, die nicht-themenrelevant ist aber Sichtbarkeit hat, als einen Link von einer themenrelevanten Domain ohne Sichtbarkeit. Es soll auch Seiten geben, die ihren Traffic nicht über SEO bekommen.

  • Maxim Antworten

    „SEO und User-experience kann man nicht kombinieren“

    a.k.a. der tägliche Dauerkampf zwischen Produktleuten, Programmieren und Seo im Unternehmen.
    Aber alleine das Optimieren der Ladezeiten schafft doch schon beides.
    Usability sollte generell Priorität Nr. 1 haben. Allein wenn Besucher selten abspringen, wirkt sich das auch durchaus positiv im Ranking aus.

    Ein weiterer Mythos den ich immer wieder lese:
    H2 ist wichtiger als H1. Was gab es da schon alles an Untersuchungen und Diskussionen… =/

  • Artem Antworten

    Also bei mir hat Onpage-Optimierung einen Sprung von 2 Seiten nach vorne gemacht allein durch die Änderung des Tamplates. Und Suchmaschinenoptimierte Texte nochmal gut eine halbe Seite. Irgendwo hört es zwar auf aber es ist schon wichtig.

    Mich würde interessieren wie es den nun mit der Wertigkeit von WIkipedialinks aussieht. 😀

  • Alexander Amann Antworten

    Hi,

    amüsanter Artikel! 😉 Ich habe da noch einen für Dich:

    meta
    name=“ranking“
    engine=“googlebot“
    position=“1″
    keyword=“DeinKeyword“
    /

    😉

    Aber im ernst – den letzten den ich gehört habe: Es würde reichen in seinem Webspace (Massenhoster) mehrere Domains mit Links auf das auch dort gehostete Projekt zu setzen. Es ginge ausschließlich um den Domainnamen und nicht um die IP(-Range). „Google könne schließlich nicht verlangen, dass man mehrere Hostingpakete (mit verschiedenen IPs) mieten muss um „SEO zu machen“ …

    OT: Habe Dein eBook „Webmastertools“ endlich durch. Respekt! Vielen Dank!

  • Wolfgang Antworten

    Hallo,

    ja, da wurde mit manchem Unsinn aufgeräumt.
    Vielen Dank für die informative Zusammenstellung.

Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.

Wir sind bekannt aus...

  • Werben und Verkaufen
  • Internet World Business
  • lead Digital
  • t3n
  • https://www.trustagents.de/wp-content/uploads/2016/07/5.png
  • Markt und Mittelstand
  • IHK
  • n-tv