KI-Sichtbarkeit als neuer KPI: Warum „Share of Model“ das Share of Voice ablöst

Picture of Lucas Blochberger
Lucas Blochberger
ChatGPT verzeichnet über 900 Millionen wöchentlich aktive Nutzer:innen. Google AI Overviews erreicht zwei Milliarden. KI-Sichtbarkeit als neuer KPI? Lucas Blochberger, Founder & CEO von Blck Alpaca dazu im Gastbeitrag.

Beitrag teilen:

Lange galt Share of Voice als der führende Indikator für zukünftigen Marktanteil: Wer überproportional präsent war, wuchs. Dieses Prinzip bleibt gültig – doch der Kanal hat sich fundamental verschoben. Laut einer Capgemini-Studie haben 58 Prozent der Konsumenten klassische Suchmaschinen durch generative KI-Tools für Produktempfehlungen ersetzt. 2023 waren es noch 25 Prozent. Gleichzeitig tracken laut McKinsey nur 16 Prozent der Marken ihre Sichtbarkeit in KI-generierten Antworten. 

Was „Share of Model“ bedeutet – und woher der Begriff stammt 

Share of Model (SoM) misst den Anteil der Erwähnungen, Zitationen oder Empfehlungen einer Marke in LLM-generierten Antworten – im Verhältnis zu allen Marken Erwähnungen einer Kategorie. Der Begriff wurde Anfang 2024 von Jack Smyth geprägt, Chief Solutions Officer bei der Digitalagentur Jellyfish. Tom Roach, ebenfalls bei Jellyfish, verknüpfte das Konzept in seiner viel beachteten Marketing-Week-Kolumne mit den etablierten „Share of“-Metriken und positionierte SoM als deren logische Weiterentwicklung für das KI-Zeitalter. 

Im Juni 2025 folgte die akademische Validierung: Ein Artikel im Harvard Business Review, verfasst von INSEAD-Professor David Dubois gemeinsam mit dem Jellyfish-Team, schlug drei Messdimensionen vor: die Mention Rate (wie oft eine Marke erwähnt wird), den Human-AI Awareness Gap (die Diskrepanz zwischen menschlicher Markenbekanntheit und KI-Markensichtbarkeit) und das Brand Positioning (wie positiv und akkurat die Marke beschrieben wird). 

Der Unterschied zu Share of Voice ist fundamental: SOV misst den Anteil am Werbedruck, SoM den Anteil an KI-generierten Empfehlungen. Während SOV auf menschliche Konsumenten zielt, zielt SoM auf die KI-Modelle – die dann Millionen menschlicher Entscheidungen beeinflussen. 

Die Zahlen hinter dem Paradigmenwechsel 

Die Skalierung der KI-Suchplattformen ist beispiellos: ChatGPT verarbeitet täglich über zwei Milliarden Anfragen bei 900 Millionen wöchentlich aktiven Nutzern. Google AI Overviews erreicht zwei Milliarden monatliche Nutzer in über 200 Ländern – in Deutschland seit März 2025. Perplexity AI bedient 45 Millionen monatlich aktive Nutzer. Das ist keine Nische mehr. 

Entscheidend für CMOs: Diese Nutzung übersetzt sich in Kaufverhalten. Die McKinsey AI Discovery Survey zeigt, dass 50 Prozent gezielt KI-gestützte Suchmaschinen für Kaufentscheidungen aufsuchen. 44 Prozent bezeichnen sie als ihre primäre Informationsquelle – vor klassischer Suche. McKinsey prognostiziert: Bis 2028 werden 750 Milliarden US-Dollar an US-Umsatz über KI-gestützte Suche fließen. Der Chat GPT-Referral-Traffic konvertiert mit 11,4 Prozent – mehr als doppelt so hoch wie die organische Suche. 

Wie Sprachmodelle über Marken lernen 

Um Share of Model gezielt zu beeinflussen, muss man verstehen, wie LLMs Marken-Assoziationen bilden. Der Prozess unterscheidet sich grundlegend von klassischen Suchmaschinen. 

Parametrisches Wissen und RAG 

Im Pre-Training lernen Modelle aus riesigen Webkorpora: Common Crawl, Wikipedia (das in praktisch jedem LLM die größte autoritative Einzelquelle darstellt), Reddit, Fachmedien und akademische Journals. Dieses parametrische Wissen ist in den Modell Gewichten eingefroren. Retrieval-Augmented Generation (RAG) ergänzt es um aktuelle Webinhalte – über 76 Prozent der RAG-Zitationen stammen aus Inhalten der letzten 30 Tage. Wer in den Trainingsdaten bereits präsent ist, hat deutlich bessere Chancen, denn OpenAI greift noch etwa 60 Prozent der Zeit auf Trainingsdaten zurück. 

Was bestimmt, ob eine Marke empfohlen wird? 

Eine Untersuchung über 10.000 LLM-Anfragen identifizierte die stärksten Korrelationen: Domain-Autorität ist das wichtigste Signal, gefolgt von Marken Suchvolumen, Häufigkeit in Trainingsdaten, Aktualität und konsistenter Content-Struktur. Inhalte mit klaren Heading-Levels werden 40 Prozent wahrscheinlicher paraphrasiert. Positives Sentiment in autoritativen Quellen erhöht die Empfehlungswahrscheinlichkeit zusätzlich. 

Fünf Hebel für mehr Sichtbarkeit in KI-Antworten 

Die gute Nachricht: KI-Sichtbarkeit ist kein Zufall, sondern das Ergebnis systematischer Arbeit. In unserer Praxis mit B2B-Kunden haben sich fünf Hebel als besonders wirkungsvoll erwiesen. 

1. Strukturierte Daten als semantisches Fundament 

Schema.org-Markup wird über Web Data Commons aus Common Crawl extrahiert und fließt direkt in LLM-Trainingsdaten ein. Microsoft hat offiziell bestätigt, dass Bing Copilot strukturierte Daten zur Inhaltsinterpretation nutzt. Über 72 Prozent der Websites auf Googles erster Seite verwenden Schema-Markup. Die prioritären Arten für Marken: Organization, Article, FAQPage, HowTo und Product – stets im JSON-LD-Format mit Datumsstempeln. 

2. Autorität in Fachmedien aufbauen 

LLMs gewichten Backlinks weniger als klassische Suchmaschinen. Sie lernen aus Kontexthäufigkeit und Quellen Autorität. Wenn eine Marke konsistent in Artikeln über die besten Lösungen einer Kategorie erwähnt wird, assoziieren LLMs diese Marke mit der Kategorie – unabhängig vom Werbebudget. Besonders wertvoll: Original Research, Benchmark-Studien und Daten Artikel, die als Primärquellen zitiert werden können. Vorausschauende CMOs allokieren 10 bis 15 Prozent ihres Content-Budgets von konversionsorientiertem hin zu autoritäts bildendem Content. 

3. Wikipedia als Glaubwürdigkeitsanker 

Wikipedia funktioniert als „Credibility Tiebreaker“: Wenn Quellen widersprüchlich sind, greifen LLMs auf Wikipedia als primären Referenzpunkt zurück. Eine Analyse zeigt: Unter den zehn am häufigsten von LLMs zitierten Marketing-Agenturen hatten 50 Prozent eine Wikipedia-Seite. Wikipedia speist zudem Googles Knowledge Graph, der wiederum AI Overviews füttert. Besonders der Einleitungsabsatz wird von KI-Systemen am häufigsten zitiert. 

4. PR-Strategie für das KI-Zeitalter 

Jede Medienerwähnung ist ein potenzieller „Training Data Moment“ – sie lehrt Sprachmodelle, wer eine Marke ist und wofür sie steht. Markenerwähnungen auf Reddit, in Vergleichsartikeln und auf autoritativen News-Sites haben den größten Einfluss. 24 Prozent der Unternehmens-Pressemitteilungen werden direkt in LLM-Ergebnissen zitiert oder adaptiert. Entscheidend ist die Konsistenz: Die Markenbeschreibung muss über alle Erwähnungen hinweg einheitlich sein, damit LLMs ein klares Markenbild aufbauen können. 

5. Technisches SEO für KI-Crawler 

KI-Crawler wie GPTBot, Google-Extended, ClaudeBot und PerplexityBot benötigen Zugang zu Webinhalten. Das llms.txt-Protokoll, bereits von über 600 Websites adoptiert, bietet eine maschinenlesbare Zusammenfassung für KI-Systeme. Wichtiger ist aktuell das Fundament: statisches HTML oder Server-Side Rendering, klare interne Verlinkung und semantische HTML-Elemente. Wer seine robots.txt für KI-Crawler sperrt, schließt sich selbst aus. 

Die Tool-Landschaft: Von kostenlos bis Enterprise 

Der Markt für KI-Sichtbarkeits-Tools ist 2025 regelrecht explodiert – über 27 Plattformen sind verfügbar. Für den Einstieg eignet sich der HubSpot AEO Grader (kostenlos, keine Nutzungslimits), der eine Grundbewertung über GPT-4o, Perplexity und Gemini liefert. 

Die Jellyfish Share of Model™ Plattform (shareofmodel.ai) hat den Begriff geprägt und bietet Enterprise-Grade-Analyse über alle relevanten LLMs hinweg. Im DACH-Raum verdient das Wiener Startup Rankscale.ai besondere Aufmerksamkeit: Es trackt 20 LLM-Modelle mit täglichen Prompt-Zyklen, bietet Visibility Scoring, Zitationsanalyse und Wettbewerbs-Benchmarking. Über 700 Marken und Agenturen nutzen die Plattform bereits. 

Weitere relevante Tools: Profound, Peec.ai (Berlin), Otterly.ai und die KI-Sichtbarkeitsmodule von Semrush und Ahrefs. Wer zunächst manuell messen möchte: 5 bis 10 informationelle Queries kuratieren, über verschiedene LLMs systematisch prompten und Markenerwähnungen dokumentieren. Das dauert eine Stunde und liefert bereits verwertbare Erkenntnisse. 

Warum CMOs diesen KPI jetzt ins Dashboard aufnehmen müssen 

Die großen Beratungshäuser sind sich einig. Gartner prognostiziert einen Rückgang des organischen Suchtraffics um 50 Prozent bis 2028. Forrester beobachtet, dass B2B-Käufer KI-Suche dreimal schneller adoptieren als Konsumenten. McKinsey stellt fest: Selbst bei Branchenführern liegt die GEO-Performance 20 bis 50 Prozent hinter der SEO-Performance. Der Impact ist bereits messbar: Bei Suchanfragen mit AI Overviews sinkt der organische CTR um 61 Prozent. Aber Marken, die zitiert werden, erhalten 35 Prozent mehr organische Klicks und 91 Prozent mehr bezahlte Klicks. 60 Prozent aller Google-Suchen enden ohne Klick; bei AI Overviews klicken nur 8 Prozent auf einen Link. Die Marke muss in der Antwort selbst präsent sein – nicht erst im Link darunter. Seite 4 

Der DACH-Markt: Aufholend, aber mit First-Mover-Potenzial 

Die Bitkom-Studie vom November 2025 liefert die zentrale DACH-Zahl: 50 Prozent der deutschen Internetnutzer setzen bereits zumindest gelegentlich auf KI-Chats statt klassischer Suche. Bei den 16- bis 29-Jährigen sind es 66 Prozent. Deutschland generiert 5 bis 6 Prozent des globalen ChatGPT-Prompt-Volumens – europaweit der Spitzenreiter. 

Gleichzeitig liegt der DACH-Markt geschätzt sechs bis zwölf Monate hinter dem angloamerikanischen Markt. Der Begriff „Share of Model“ ist im deutschsprachigen Raum noch kaum bekannt. Aber das Tempo steigt: Auf der SEOkomm 2025 in Salzburg und der DMEXCO in Köln war Generative Engine Optimization bereits Kernthema. Agenturen wie Aufgesang, Evergreen Media und Claneo bieten explizite GEO-Dienstleistungen an. Mit Rankscale.ai kommt einer der relevantesten Tool-Anbieter aus Wien. 

Für den DACH-Raum ergibt sich ein strategisches Zeitfenster. Der Markt ist früh genug, dass Marken mit einem systematischen Ansatz echte First-Mover-Vorteile sichern können. 80 Prozent der in AI Overviews zitierten Quellen ranken nicht einmal in den organischen Top 10 – die alten Rankings sind also kein Schutzschild. 

Fazit: Von der Messung zur Steuerung 

Share of Model ist für das KI-Zeitalter, was Share of Voice für das Werbezeitalter war: der führende Indikator für zukünftigen Marktanteil. Die Transformation findet jetzt statt, die Tools sind verfügbar, die Methoden dokumentiert. Für Marketing-Entscheider empfehle ich drei nächste Schritte: Erstens, den eigenen Share of Model messen – mit einem kostenlosen Tool wie dem HubSpot AEO Grader oder durch systematisches Prompting. Zweitens, die fünf Hebel priorisieren und in die Content-Strategie integrieren. Drittens, SoM als festen KPI im Marketing-Dashboard etablieren – mit monatlichem Tracking. Die Frage ist nicht, ob KI-Sichtbarkeit relevant wird. Die Frage ist, wie schnell Ihr Unternehmen reagiert. 900 Millionen wöchentliche ChatGPT-Nutzer warten nicht. 

Lucas Blochberger ist Founder & CEO bei Blck Alpaca, einer Data-Driven Marketing Agentur in Wien, die sich auf KI-gestützte Marketing-Automatisierung und AI-Agent-Entwicklung spezialisiert hat. Seit über einem Jahr arbeitet sein Team an der systematischen Steigerung der Markensichtbarkeit in KI-generierten Antworten – einer Disziplin, die das Unternehmen als „AI Optimization“ bezeichnet.

Beitrag teilen:

Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen