Deswegen sind KI-Antworten oft uneinheitlich
Idente Antworten auf (nahezu) idente Prompts sind bei LLMs ein Glücksspiel, wie zuletzt eine Studie für sparktoro.com zeigte. Wer heute beispielsweise nach Reiseempfehlungen für Rom sucht, erhält drei Tage, ja sogar drei Stunden später womöglich (weitestgehend) andere Tipps und Hotelvorschläge. Speziell im Sichtbarkeits- und Brand-Tracking führt das zu gewissen Problemen. Warum aber gibt es teils so starke Unterschiede bei KI-Antworten? Und wie kann man trotzdem häufiger „aufscheinen“?
Das Problem mit der Wahrscheinlichkeit
Diese teils großen Unterschiede sind kein Zufallsprodukt, sondern hängen mit der Technik hinter LLMs zusammen. KI-Tools beantworten Prompts gemäß vermuteter Wahrscheinlichkeiten, wie ein stark fortgeschrittenes Autocomplete-Feature. Je nach Frage und Anforderung können die möglichen Antworten mehr oder weniger stark variieren. Alle Antworten sind – zumindest meistens – vollkommen korrekt, erschweren jedoch die Erfolgsmessung. Zugleich wird der Prompt-Kontext jedes Mal neu definiert.
Auch zeitliche Unterschiede von mehreren Stunden, Tagen oder Wochen sorgen für uneinheitliche Antworten. Zwar verfügen LLMs über einen gewissen „Gedächtnisspeicher“, speziell wenn ein gespeicherter Prompt weitergeführt wird, doch werden auch hier nur vermutete relevante Daten einbezogen. Diese implizierte Wahrscheinlichkeit sorgt für Abwechslung, führt jedoch etabliertes SEO-Denken gekonnt ad absurdum.
Keine Konstanz in Rankings und Präsenz
Ein guter Rang in den organischen Suchergebnissen, vor allem in den Top 3 oder Top 5, schlägt sich auf alle entsprechenden Suchanfragen in klassischen Suchmaschinen wie Google nieder – messbarer Erfolg mit greifbarem Mehrwert. Das gibt es im LLM-Umfeld eben nicht. Jeder neue Prompt, jede neue KI-Unterhaltung setzt die Sichtbarkeit auf null und macht sie kontextabhängig. Selbst jede noch so gut optimierte Seite hat wenig Chancen auf Präsenz, wenn vorangegangene Prompts bereit von der Konkurrenz abgeholt worden waren. KI-Tools bleiben eher bei jenen Seiten, die sie in einer Unterhaltung schon als sinnvollen Antwortlieferanten ausgemacht haben.
Kurzum: Klassische Sichtbarkeitsmessung und das Hinarbeiten auf starke Rankings machen im LLM-Umfeld keinen Sinn. Es geht hauptsächlich darum, Wahrscheinlichkeiten möglichst genau abzugreifen und Anlaufpunkt für komplette Suchkontexte zu werden.
Prompt-übergreifende Optimierungstaktiken
Wenn jeder Prompt, jeder Tag, ja sogar jede Stunde die eigene Sichtbarkeit zurücksetzt, dann braucht es ein Umdenken. Folgende Maßnahmen, Taktiken und Strategien verbessern die Chancen auf LLM-Sichtbarkeit.
Strukturierte Daten: LLMs suchen nach eindeutigem Content, der schnell und problemlos maschinell verarbeitet werden kann. Strukturierte Daten vermitteln eindeutige Informationen aus erster Hand. Korrekt angelegt und detailliert ausgeführt, schaffen Schema.org-Markups in der Regel deutlich häufigere Zitierungen in KI-Antworten.
Prompt-Sequenzierung: Wenn die erste Antwort nach dem ersten Prompt auf bestimmte Quellen führt, dann werden diese in der Regel bei weiteren, genaueren Anfragen ebenfalls bevorzugt angezeigt. KI-optimierter Content orientiert sich an allen Sequenz-Ebenen – von sehr generellen Fragen bis hin zu möglichst exakten Antworten. Query Fan-out funktioniert wie ein Trichter, der Schritt für Schritt zu immer spezifischeren Daten führt.
Konsistenz-Tracking: Natürlich ist es verlockend nachzusehen, wie oft die eigene Seite in LLMs angezeigt wird. Die Konsistenz ist aber viel wichtiger, denn sie sagt, wie verlässlich gleiche und ähnliche Anfragen an das gewünschte Ziel führen. Unterschiedliche, ähnlich gelagerte Fragen auf unterschiedlichen Sequenz-Ebenen zu unterschiedlichen Zeiten ergeben möglichst genaue Ergebnisse – ein Mehraufwand im Tracking, der sich absolut lohnt.
Es gibt keine Garantie für (konstante) Präsenz in KI-Antworten, das ist gewiss keine große neue Erkenntnis. Wohl aber lässt sich in gewissen Bereichen nachjustieren, um in den relevanten Prompts zumindest etwas häufiger aufzuscheinen. Wer die Sichtbarkeit in LLMs untersucht, muss sich von klassischem SEO-Denken verabschieden, ohne dabei auf klassisches SEO zu vergessen – paradox, aber unerlässlich.
Quelle: www.searchenginejournal.com
Copyright-Foto: unsplash.com/almoya