
Google findet und wertet automatisierten KI-Content ab
In den letzten Monaten überarbeitete Google seine Search Quality Rater Guidelines (als englischsprachiges PDF abrufbar) mehrfach, konkretisierte bestehende Problemfelder und fügte neue Punkte hinzu. Das umfasst unter anderem die schlechte User Experience, die Low-Quality-Content mit sich bringt. Zugleich rückt die immer stärker und populärer werdende generative KI in den Fokus. Überwiegend automatisierter oder durch künstliche Intelligenz erzeugter Main Content (Hauptinhalt) wird als „lowest quality“ bzw. „niedrigste Qualität“ eingestuft. Das Ergebnis: deutlich schlechtere Rankings und Präsenz in Google AI Overviews.
Wie wird automatisierter / KI-Content ermittelt?
Das ist eine technische Frage, die Google – wie immer, möchte man sagen – nicht beantworten will. In den Search Quality Rater Guidelines wird bei den Punkten 4.6.6 und 4.6.7 von „paraphrasiertem Content“ gesprochen, der den Inhalt anderer Seiten entweder mit anderen Worten erneut auflistet oder kurz zusammenfasst. Wird eigener Content zusammengefasst oder angeschnitten dürfte das, wenn sinnvoll, jedoch weniger problematisch sein (komplettes Wiederkauen sollte wohl dennoch vermieden werden), denn die Guidelines bestimmen paraphrasierte Inhalte anhand folgender Faktoren:
Bestehen ausschließlich aus allgemein bekannten Informationen und Fakten
Überschneiden sich stark mit Referenzwebseiten und großen Informationsquellen, wie Wikipedia
Scheinen eine sehr bestimmte, spezifische Seite (wie Forumsdiskussion oder Nachrichtenbeitrag) zusammenzufassen, ohne inhaltlichen Mehrwert zu bieten
Beinhalten typische KI-Schlüsselphasen, wie „als KI-Sprachmodell“
Low-Effort-Content im Visiert
Durch die Guideline-Änderungen staffelt Google seine Maßnahmen gegen automatisch generierten Content nun und nennt mehrere Problemfaktoren, wie den Kauf abgelaufener Domains, um Content ohne Mehrwert zu hosten, oder den Einbau von Third-Party-Content, um von den Ranking-Signalen der Host-Website zu profitieren. Zudem gibt es nun den Faktor „Scaled Content Abuse“, der sich minderwertigen und/oder unbearbeiteten, massenproduzierten Inhalten widmet, und zugleich KI als Beispiel nennt. Wer also versucht, seine Website durch nichtssagende Contentmassen zu fluten, wird eher abstürzen als gewinnen. Das gilt auch für die zuvor erwähnten paraphrasierenden Inhalte.
Achtung vor (leichter) Irreführung und Übertreibung
Dieses Thema ist vielleicht nicht neu, wird nun jedoch als Qualitätsmerkmal verankert und konkretisiert: Sektion 5.6 widmet sich irreführenden Informationen auf einer Website, die den klassischen Marketing-Spin über tatsächliche inhaltliche Substanz stellen. Wer also übertrieben schwärmende Claims und Kundenmeinungen präsentiert, während anderswo im Web überwiegend weniger euphorische Stimmen zu Produkten und Leistungen zu finden sind, könnte mit Rankingeinbußen rechnen, falls eine leichte Irreführung vorliegt. Das gilt ebenso für Experten, die bei ihren Qualifikationen und ihrem Fachwissen nachweislich übertreiben. Ehrlich währt definitiv am längsten.
Letztlich bleibt die Feststellung, dass KI zwar auch im SEO-Bereich Arbeiten erleichtern kann, jedoch richtig eingesetzt werden muss. Unverändert übernommene, automatisch generierte und/oder paraphrasierte Inhalte können auf lange Sicht die eigene Seite schwächen, gerade bei großen Content-Mengen. Expertise, Ehrlichkeit und User-Mehrwert bleiben das A und O.
Quelle: searchengineland.com
Copyright Foto: unsplash.com/Mohamed Nohassi