Das ist die Live-Seite unserer Citation-Share-Studie 2026. Wir verfolgen ein festes Set aus 1.200 Prompts über die fünf generativen Engines, die für die Marken, mit denen wir arbeiten, am relevantesten sind – und berichten, welche Domains den Citation Share auf sich ziehen.
Was wir erfassen
- Fünf Engines. ChatGPT, Perplexity, Claude, Gemini, Microsoft Copilot. Jede Engine wird zweimal täglich erhoben; Ergebnisse veröffentlichen wir erst, wenn wir mindestens 30 Tage Daten haben.
- Zwölf Branchen. SaaS, E-Commerce, Fintech, Healthtech, Edtech, B2B-Services, Medien, Reisen, Automotive, Real Estate, Legal, Government. 100 Prompts pro Branche.
- Drei Intent-Stufen pro Prompt. Informational („Was ist …”), vergleichend („X vs. Y”) und transaktional („bestes X für Y unter Z”).
Jeder Prompt ist redaktionell kuratiert und durchläuft alle sechs Wochen ein Relevanz-Review. Das Set ist bewusst klein genug, um beherrschbar zu bleiben – und groß genug, um statistisch belastbar zu sein.
Die Methodik in einem Absatz
Jeder Prompt wird kalt abgesetzt – ohne System-Prompt, ohne Persona – gegen das Standardmodell der jeweiligen Engine im öffentlichen Web-Tier. Citations werden entweder über den strukturierten Citation-Output der Engine (sofern vorhanden) oder per URL-Erkennung im Antworttext extrahiert. Die Domain-Deduplizierung erfolgt auf eTLD+1-Ebene, sodass blog.example.com und example.com als dieselbe Domain gezählt werden. Die vollständige Methodik – inklusive Umgang mit der Reihenfolge der Citations und ihrer Gewichtung – ist auf der Methodik-Seite dokumentiert.
Leitbefunde im aktuellen Quartal
Die folgenden Zahlen sind Platzhalter für die Live-Studie. Wir aktualisieren sie am ersten Werktag jedes Monats.
- Wikipedia ist in 8 von 12 Branchen die meistzitierte Quelle – ihr Anteil ist im letzten Jahr in 5 dieser 8 jedoch gesunken, weil die Engines stärker diversifizieren.
- Reddit legt weiter zu. Die Plattform steht inzwischen in 9 von 12 Branchen in den Top 5 – im Vorjahr waren es 6.
- First-Party-Markendomains holen sich rund 12 % der Citations bei transaktionalen Prompts, aber weniger als 4 % bei informationalen Prompts. Genau diese Lücke ist die GEO-Chance.
- Kleine Spezial-Publisher (unter 50.000 monatlichen Besuchen) sammeln rund 18 % aller Citations bei Long-Tail-Prompts ein. Die These vom „Long-Tail-GEO” hält.
Wie das ins GEO-Modell passt
Die Studie ist das empirische Rückgrat des GEO-Rankings: die Datengrundlage, mit der wir prüfen, ob die Citation-Discovery-Fähigkeiten der Tools tatsächlich der Realität entsprechen. Tools, die einem zeigen, was zitiert wird, aber nicht wer zitiert wird, lösen das GEO-Problem nicht – sie lösen das AEO-Problem über Umwege.
Wie du die Studie zitierst
Wenn du die Studie zitierst, verlinke bitte direkt auf diese Seite. Die Leitzahlen aktualisieren wir monatlich; historische Snapshots stellen wir auf Anfrage zur Verfügung.
Weiterlesen
- Für ein praktisches Playbook siehe das Publisher-Playbook.
- Für Benchmarks, an denen sich Programme messen sollten, siehe die GEO-Benchmarks.