Lösungen für die häufigsten SEO-Fehler

Lösungen für die häufigsten SEO-Fehler

Best Practices sind eine tolle Sache, zumindest in der Theorie. Im SEO-Sektor erklären sie unter anderem, wie eine Seite aufgebaut sein soll, wie sie mit Inhalten und Verbindungen umzugehen hat, und wie wichtig Page Speed ist. Kürzlich fand eine Studie der Universität von Cambridge heraus, dass keine einzige der getesteten Seiten – darunter die grössten Seiten im Netz – eine perfekte Punktzahl erreichen konnte. Manche SEO-Fehler treten eben immer und immer wieder auf. Welche das sind? Was man dagegen tun kann? Anschnallen und los geht’s!

Inhalt, Indexierung und Accessibility

Ob Content immer noch König ist, gilt selbst unter Experten als Streitfrage. Wichtig ist der Faktor Inhalt weiterhin und zählt zur ersten grossen Gruppe der SEO-Baustellen:

  • Duplicate Content stellt theoretisch kein Problem dar, wenn er richtig gehandhabt wird. Zwar können und dürfen sich Inhalte innerhalb eines Web-Angebots duplizieren (Plagiate sind natürlich weiterhin ein No-Go), doch sollte für Google Co. stets klar sein, wo sich das Original befindet. Canonical Tags erklären Suchmaschinen, welche Seiten bevorzugt zu indexieren sind.
  • Thin Content beschreibt hingegen Inhalte, denen Google einen geringen Wert zuschreibt, beispielsweise aufgrund geringer Wortzahl oder mangelnder inhaltlicher Tiefe. Häufig macht es mehr Sinn, ähnliche Kurzbeiträge zu einem Grossthema zusammenzufassen, auch aus Ranking-Sicht.
  • Soll eine Seite nicht bei Google ranken, ist der Noindex-Tag zu verwenden. Um ungewünschte Platzierungen zu vermeiden, sind Listen und Kontrollen unumgänglich.
  • iFrames sind für Suchmaschinen oft unsichtbar. Sie können sich negativ auf den indexierten Content, die Page Speed und die Page Experience auswirken. Durch ihre Malware-Anfälligkeit sollten sie erst recht der Vergangenheit angehören.
  • Apropos Vergangenheit: Seit 31. Dezember 2020 ist Flash Geschichte. Entsprechend sollte es auch von sämtlichen Websites verschwinden.
  • AMP kann Mobilseiten beschleunigen und Rankings verbessern, ist aber längst kein Muss mehr und zieht sich sogar langsam zurück. Entsprechend sollte stattdessen auf responsive Designlösungen gesetzt werden. Zudem verändert sich der Code gelegentlich – überholte Tags wollen entfernt werden. CSS und JavaScript kann des Weiteren zu Kompatibilitätsproblem mit AMP sorgen.

Statuscodes und sichere Verbindungen

Serverseitige Fehler können Googlebots am vollständigen Indexieren einer Website hindern und zugleich das Online-Erlebnis für Nutzer negativ belasten. Guter Rat muss aber nicht teuer sein:

  • 4xx-Fehlercodes erschweren die Bot-Indexierung. Je mehr fehlerhafte Verbindungen getroffen werden, desto langsamer können neue Inhalte in den Suchindex aufgenommen werden. Zudem leidet der PageRank – Weiterleitungen sind Pflicht.
  • 5xx-Fehlercodes verweisen hingegen auf serverseitige Probleme, die bestimmte Anfragen nicht erfüllen können. Auch diese wollen stets überwacht und möglichst schnell repariert werden.
  • Gemischte HTTPS- und HTTP-Inhalte, z. B. HTTP-eingebundene Grafiken, Links und Frames auf Seiten mit ansonsten sicherer Verbindung, werden in Chrome nicht mehr geladen und sind ausserdem für Hacker-Angriffe anfällig. Eine Komplettumstellung auf HTTPS ist längst notwendig.
  • Passwörter können auf HTTP-Seiten leichter gestohlen werden. input type = "password" hebt den Schutz unter Umständen auf; ein weiteres Argument für HTTPS.
  • Der Domainname sollte stets mit der SSL-Registrierung übereinstimmen. Ein Common Name Mismatch kann eine entsprechende Zertifizierung aufheben.

Links, Redirects und hreflang

Sind alle eingehenden Links gut? Führen Weiterleitung tatsächlich ans richtige Ziel oder tauchen plötzlich Fehlercodes auf? Vertrauen wird überbewertet, Kontrolle ist der Schlüssel zum Erfolg:

  • Kann eine Seite aufgrund fehlender Verlinkungen vom Index nicht gefunden werden, spricht man von Orphaned Pages. Was gecrawlt werden soll, muss verlinkt werden, und sei es nur in der Sitemap.
  • Weiterleitungsschleifen verlangsamen den Crawling-Prozess, da jeder Website nur ein gewisses „Crawling-Budget“ zusteht. Redirects sollten daher nicht auf weitere Redirects führen, sondern stets direkt auf die jeweilige Zielseite.
  • Zudem will immer auf eingehende Links geachtet werden. Kommen diese von spammigen oder abgestraften Seiten, kann dies auf den eigenen PageRank abfärben. Googles Disavow-Formular schafft Abhilfe.
  • hreflang gibt Auskunft über die Zugehörigkeit von Inhalten zu bestimmten Sprachversionen einer Website. Dabei ist stets auf den richtigen Länder- und Sprachcode, durch einen Bindestrich getrennt, zu achten, wobei der Ländercode zuerst genannt wird. Eventuelle Konflikte mit Canonical Tags sind ebenfalls nicht ohne.

Page Speed und Page Experience

Das Netz wird schneller und schneller, nicht zuletzt aufgrund der inzwischen dominierenden Mobilnutzung. Nimmt man das jüngste Page Experience Update des Suchalgorithmus hinzu, muss in diesem Bereich dringend nachgebessert werden:

  • Browser Caching beschleunigt das Laden der Website und verhindert, dass bei jedem Besuch alle Inhalte neu abgerufen werden müssen. Das bietet sich für unveränderlichen Content an.
  • Komprimierung ist nicht nur bei Bildern angesagt. Auch HTML, JavaScript und CSS harmonieren mit Compression.
  • Die neuen Web Vitals des Page Experience Updates wollen berücksichtigt werden. Metriken wie LCP, FID und CLS geben Auskunft über die Performance-Power einer Website.
  • Hingegen sind Interstitials der invasiven Art ein absolutes No-Go und wirken sich negativ auf die Page Experience aus. Mobile Pop-ups sollten maximal temporär verwendet werden.

Quelle: www.searchenginejournal.com

Copyright Foto: ©pixabay.com/Templune

Inhaltslücken mit einer Content-Gap-Analyse finden

Vorheriges Posting

Google stellt Tracking für individualisierte Werbung ein

Nächstes Posting