Sucherfahrungsoptimierung

Inhaltsverzeichnis

Digitale Transformation und ihre Auswirkung auf SEO als Marketingdisziplin

Von SEO zu SXO

Nachdem ich nach vierzehn Jahren des Eigenbrötlertums den Entschluss fasste, mich an einer eigenen Marketingagentur zu probieren, ließ die Enttäuschung nicht lange auf sich warten, denn was Kunden unter “SEO” verstanden, hatte mit meiner Vorstellung von modernem Digitalmarketing nichts gemein. Mir schien, als hätten die schmierigen Re-Seller pakistanischer Backlinkpackages auf Fiverr ein für alle Mal gewonnen, denn selbst gestandene Geschäftsmänner mit Sinn und Verstand schienen auf den üblichen Snakes Oil Bullshit herein zu fallen. Und das in Zeiten von Always On Kultur und disruptiven Innovationen soweit das Auge blickt… Ich war zutiefst beleidigt und überlegte lange, wie ich nach Abschluss meines Studiums nun weitermachen sollte, denn Webseiten zu basteln und anschließend mit Traffic zu versorgen war seit jeher mein Plan für die Zukunft und einen Plan B hatte ich leider keinen parat.

Weiterhin alleine hinter meinem Rechner zu sitzen war nach vierzehn Jahren einfach undenkbar, denn ich drohte bereits, an Vereinsamung krank zu werden und ließ bereits jegliche Zeichen von Sozialkompetenz vermissen. Keine gute Voraussetzung für ein erfülltes Leben mit Haus, Frau und Hund. Es stand also außer Frage, dass ich spätestens nach Abschluss meines Master Studiums wieder mit echten Menschen zusammen arbeiten wollte. Nur schien mir, als hätte ich die Hälfte meines Lebens mit dem Erlernen einer Disziplin vergeudet, die zumindest in Deutschland einen dermaßen schlechten Ruf hat, dass selbst die klügsten meiner Kunden der Meinung waren, die Sache mit dem SEO wäre gegen eine Einmalzahlung in Höhe von fünfzig Euro erledigt… Keine guten Voraussetzungen, um mit der Geschäftsleitung einer SEO Agentur glücklich zu werden.

Umso erleichterter war ich, nachdem ich bei der Lektüre eines Forbes-Artikels auf den Begriff der Sucherfahrungsoptimierung stoß, die laut Artikel die herkömmliche SEO ablöst und dem Anspruch an den Marketer 4.0 gerecht wird, der mittlerweile weitaus mehr können muss als Linkspam in Blogs und Foren zu betreiben, um in Sweatshops produzierten Content so prominent wie möglich in Google zu platzieren. Das klang nach einer guten Idee: Ich würde meine Leistungen einfach unter dem Oberbegriff der “SXO” vermarkten und somit verhindern, aus Kundensicht im Preiskampf mit pakistanischen Linkschleudern zu stehen, die unbedarften Unternehmen Platz 1 für jedes Keyword verspricht und das für nur 99 Euro im Monat.

Und weil der Begriff “SXO” bislang nur von wenigen Bloggern und Agenturen aufgegriffen wurde, schien mir die Gelegenheit ideal, dieser neuen Disziplin auch in Deutschland zu mehr Aufmerksamkeit zu verhelfen, indem ich den Begriff synonym zur SEO verwenden würde. Je mehr ich mich damit beschäftigte, die Unterschiede zwischen SEO und SXO herauszuarbeiten, desto klarer wurden mir auch die Gründe für den Wandel der Suchmaschinenoptimierung. Diese findet man hauptsächlich im technologischen Wandel, in sogenannten “disruptiven Innovationen” oder, die lustigere Variante, “innovativen Disruptionen”. Jedenfalls spielen Peak Mobile, die Cloud, selbstlernende Algorithmen, Big Data und das Social Web eine tragende Rolle hinter der Transformation von dem, was wir vor einigen Jahren noch guten Gewissens als SEO bezeichnet haben und das angesichts der enorm gestiegenen intellektuellen Anforderungen an die Disziplin einfach eines neuen Namens bedarf. Denn mit stupidem Linkspam hat SXO so Mal gar nichts mehr am Hut.

Durch  die ganzen technischen Veränderungen ändert sich auch die Art und Weise, wie Menschen nach Informationen suchen und damit wiederum, welche Einflussfaktoren von Suchmaschinen wie Google zurate gezogen werden, um Sucherergebnisse in Abhängigkeit der persönlichen Historie und Präferenzen des Suchenden und im geographischen, zeitlichen und semantischen Kontext seiner Suchanfragen zu priorisieren und auszuliefern.

Kritischer Faktor ist abgesehen von technischen Aspekten und damit der Anpassung bzw. Erweiterung etablierter Geschäftsmodelle die Adaptionsfähigkeit der Humanressourcen. Das bedeutet: Dein Personal ist höchstwahrscheinlich nicht clever genug, um dir beim Überleben der digitalen Transformation mit Rat und Tat zur Seite zu stehen. Jedenfalls nicht, wenn du gewöhnliche Marketingfuzzis angestellt hast, die über keine spezielle Ausbildung im Digital Marketing verfügen – also zumindest erfolgreich einen Squared Kurs absolviert haben oder wenigstens SmartInsights Templates ausfüllen können ohne vor Überforderung in Tränen auszubrechen. Während Moore’s Law bewirkt, dass sich die Rechenleistung von Prozessoren und damit das Maß technischer Innovationen in regelmäßigen Zeitabständen verdoppelt, steigt mit der systemischen Komplexität also auch der Anspruch an die berufliche Qualifikation von Marketingpersonal.

Unternehmen stehen zunehmend vor dem Problem, geeignete Leute zu finden, denn “Digital Natives” – also jene, die den “Kunden 3.0” und seine Wünsche und Bedürfnisse am ehesten auch selbst widerspiegeln, sind rar. – und schweineteuer Selbst gestandene Marketeers hegen ernsthafte Zweifel hinsichtlich der Zukunftsfähigkeit des eigenen Qualifikationsprofils: „Einer Studie von Adobe zufolge glauben die meisten Marketingprofis, dass sich ihr Beruf in den letzten 24 Monaten stärker geändert hat als in den vorangegangenen 50 Jahren.“ Tatsächlich haben sich die Aufgabengebiete und erforderlichen Qualifikationen und Kenntnisse eines ganzen Berufszweigs derart erweitert, dass Online Marketing nun „Digital Marketing“ heißt und „SEO“ wie bereits eingangs erwähnt den treffenderen Namen „SXO“ trägt, um nicht in Verbindung gebracht zu werden mit Linkspam, Keyword-Stuffing und am Fließband produziertem „Thin Content”, der lediglich für Suchmaschinen geschrieben wurde und das Internet lange Zeit zu einem qualitativ fragwürdigen Medium verkommen ließ.

Warum eine Digitale Strategie überlebenswichtig ist

Wollen ohnehin schlecht aufgestellte Unternehmen – die absolute Mehrheit besitzt keine übergeordnete Digitalstrategie – die Transformation überleben, ist auch hinsichtlich der strategischen Ausrichtung ein radikales Umdenken unumgänglich. “Digital First” lautet die Devise in einer Zeit der Digitalisierung sämtlicher Aspekte unseres Alltags. Fest steht, dass es um die Zukunft unzähliger deutscher Unternehmen schlecht bestellt ist, die aus Angst vorm Scheitern, der Kannibalisierung eigener Geschäftsmodelle oder Fehlinvestitionen lieber auf sinkenden Schiffen verbleiben, mit deren Steuerungsmöglichkeiten sie wenigstens vertraut sind:

„Dominant ist wohl der offensichtlich hilflose Versuch, auf die Angst vor dem Scheitern dadurch zu reagieren, dass man Niederlagen gar nicht erst zulässt. Die alles durchdrängende Kultur der Risikoscheu unterdrückt jede Lernbegier und ist fundamental innovationshemmend.“

Die Konsequenzen dieser Angst reflektieren sich im Digital Marketing vor allem in Opportunitätskosten durch das Verpassen von Marktchancen – ein kritischer Punkt, der zu einem späteren Zeitpunkt noch näher betrachtet wird.

Selbsterfüllende Prophezeiungen: Content is King, der Kunde König & SEO tot

War das von Google seit Anbeginn gepredigte Mantra „Optimiere für den User, nicht für unseren Algorithmus“ in Zeiten dominierender Blackhat-Techniken über Jahre hinweg mehr Farce als ernstzunehmende Drohung, hat Google mit den Algorithmus-Updates der vergangenen vier Jahre zunehmend “ernst gemacht” – an einer Orientierung am Nutzer führt nicht zuletzt deshalb kein Weg mehr vorbei, weil Algorithmen sich immer stärker an dessen Verhalten orientieren. Das war lange Zeit gar nicht möglich, weil schlicht und ergreifend die Nutzerdaten fehlten, die erst in Hülle und Fülle vorhanden sind, seitdem jeder Idiot mit seinem Mobiltelefon ins Bett geht. Und weil die Nutzerdaten wirtschaftlich viel wert sind, möchte Google am liebsten einen Microchip ins Gehirn eines jeden Chrome-Nutzers einpflanzen und Webmaster erschießen, wenn sie Backlinks im Footer verstecken – letztendlich zielt Google mit algorithmischen Druckmitteln in Form von Penalties auf eine kontinuierliche Verbesserung der Qualität eigener Suchergebnisse ab, um den gefühlten Nutzen der eigenen User zu erhöhen und diese in letzter Konsequenz durch Qualitätsvorsprünge gegenüber anderen Suchmaschinen noch stärker als ohnehin schon zu binden.

Durch die regelrechte Flut an Nutzerdaten und die damit einhergehende Möglichkeit der Messung und Interpretation des Nutzerverhaltens über Plattformen und Endgeräte hinweg (die korrekte Attribution der Wertbeiträge einzelner Channels und Touchpoints über die Consumer Journey hinweg stellt durch datengetriebene Verfahren ein immer geringeres Problem dar) haben sich die organischen Suchergebnisse stark verändert und passen sich durch selbstlernende Algorithmen und Fortschritte in Bereichen der künstlichen Intelligenz systematisch den Verhaltensheuristiken der Nutzer an – oder eben dem Adwords Budget milliardenschwerer Konzerne, die in den Suchergebnissen seit geraumer Zeit mehr Platz einnehmen als demokratisch legitimierbar.

Marketing als Philosophie

Geschichtlicher Rückblick

Da hinter jeder Marketing Strategie zunächst eine Philosophie steckt, muss deren Entwicklung zunächst im industriellen, geschichtlichen und psychologischen Kontext der jeweiligen Zeit betrachtet werden. Als ein Großteil der Konsumentenmärkte noch weitgehend geprägt war von einem durch die Nachkriegszeit der allseitigen Ressourcenknappheit bedingten Nachfrageüberhang – man den Leuten also Butter als Butter verkaufen konnte und sich keine Stories ausdenken musste, um aus der Masse heraus zu stechen – hatten es Unternehmen in den späten Phasen der reinen Vertriebsorientierung bis Mitte der siebziger Jahre mit klassischen Werbemitteln wie Print, Radio, TV und Sponsoring schon zunehmend schwieriger, ihre Produkte und Dienstleistungen zu verkaufen.

Der Mensch war verwöhnt und die Trümmerfrauen vergessen. Der technologische Fortschritt hat dann irgendwann dazu geführt, dass es mehr Anbieter als Nachfrager gab und sich die Unternehmen plötzlich vor der Aufgabe sahen, sich verstärkt an Markt- und Konkurrenzsituation orientieren zu müssen, um sich nachhaltig die Aufmerksamkeit der Konsumenten zu sichern. Marketing wurde wieder KRIEG und wer ein Stück vom Kuchen wollte, musste die Gehirne der Konsumenten mit falschen Versprechungen verwirren. Die dafür eingesetzten Werbemittel zielten verstärkt darauf ab, den Kunden fragwürdige Zusatznutzen zu verkaufen, um sich von der Konkurrenz zumindest in der Produkt- und Werbegestaltung zu differenzieren. Aber der Mensch ist bekannterweise ein Gewohnheitstier und man fühlte sich selbst von der beschissensten Werbung noch prächtig unterhalten, solange das Jingle nicht nervte oder zumindest Brüste zu sehen waren.

Mit steigender Internetpenetration und dem Aufkommen erster Suchmaschinen wie AltaVista, Yahoo, Lycos und letztendlich Google fanden schlichte aber effektive digitale Outbound-Werbeformen Einzug in die virtuellen vier Wände privater Haushalte. Prevalent waren hierbei noch Tausender-Kontakt-Preis und damit Impressionen abgerechnete Display-Werbeformen, wobei die Konditionsverhandlung zur Einbindung häufig noch ohne Zwischenschaltung vermittelnder Netzwerke direkt zwischen Werbetreibendem (Advertiser) und Webmaster (Publisher) stattfand.

Bewegte sich die junge Disziplin des Online Marketings bis zum Launch von Google AdWords noch konzeptionell im „Outbound-Framework“, bewirkte die  Monetarisierung der Suchergebnisse durch Pay-Per-Click Abrechnungsmodelle nicht nur einen strategischen Wandel im Online Marketing sondern vielmehr eine grundlegende Veränderung der Sichtweise auf den Konsumenten, der neuerdings durch die Preisgabe verwendeter Suchbegriffe Rückschlüsse auf den von ihm gesuchten Content bzw. die passendste Antwort auf seine Frage erkennen ließ.

Von Online zu Digital Marketing

Die eigentliche Aufgabe des Marketings, die unternehmerischen Entscheidungen konsequent auf die Bedürfnisse der Märkte und Kunden auszurichten, hat sich durch die Möglichkeit individualisierter Werbeansprache immer mehr zur Notwendigkeit und damit vom „leeren Versprechen“ (was der Kunde will, wurde ihm im zentralisierten Steuerungsansatz des Top-Down Verfahrens diktiert) zum modernen Selbstverständnis entwickelt. Während die Unterschiede zum klassischen Marketingverständnis in Zeiten des Outbound Marketings noch verhältnismäßig gering waren, muss Digital Marketing heutzutage zweifelsohne als neue Wissenschaft betrachtet werden, denn Überschneidungen sind hinsichtlich Marktregeln, Zyklen, Wettbewerbsumfeld und evidenz-basierten Entscheidungen bestenfalls in stark abstrahierter Form erkennbar.

Vom Anschreien und Zuhören

Outbound Marketing

Outbound Marketing, auch „Above-the-Line“ genannt, meint jene Werbeformen, die den Rezipienten in seiner Tätigkeit unterbrechen, um seine Aufmerksamkeit zu erhaschen – TV-Spots, Radiowerbung, Bannerwerbung und Co. “pushen” Werbebotschaften in Richtung der Konsumenten. Es besteht häufig gar kein oder lediglich schwacher Kontext zur Situation, in der sich der Empfänger zum Zeitpunkt der Werbeeinblendung befindet (man denke z.B. an Zigarettenwerbung vorm Kinofilm) und die Werbeformen werden grundsätzlich mit hoher Wahrscheinlichkeit als störend empfunden. Mitunter gilt Outbound Marketing als einer der Gründe, aus denen die durchschnittliche Aufmerksamkeitsspanne von Leuten in meinem Alter bei knapp sechs Sekunden liegt – die Werbeindustrie trägt ohne Frage ihre Mitschuld an der geistigen Behinderung einer ganzen Generation. Alvin und Mitchel forderten mitunter aus diesen Gründen bereits 1987 ein “pulling away from push marketing”, was verdeutlicht, dass Inbound Marketing – wenn auch nicht als konzeptionelles Framework, so doch als wage Idee, bereits lange vor Google existierte (und nervte!).

Inbound Marketing

Inbound Marketing („Below-the-Line“) erreicht die richtige Person genau zum richtigen Zeitpunkt am richtigen Ort auf dem richtigen Kanal über das richtige Endgerät. Die Werbeansprache kann entsprechend zielgerichtet zugeschnitten werden auf den jeweiligen situativen und semantischen Kontext, aus dem die Suche erfolgt. Dies erklärt auch die Bedeutung des Inbound Marketings als Treiber hinter personalisierter Werbung und die zunehmende Relevanz des Content Marketings – ehrlich gesagt hat sich das Internet von einem riesigen Schrottmedium zu einer unübschaubaren Sammlung von hochwertigen Inhalten gemausert, für deren Konsum es der Menschheit bereits heute an Lebensjahren fehlt –  welches jüngst durch die Implementierung des Google “Hummingbird”-Algorithmus weiter an ökonomischer Bedeutung gewann. Inbound Marketing hat einen sechsmal höheren ROI als Outbound-Werbung, solange der Content nicht nur produziert, sondern auch intelligent verteilt wird.

Besonderheiten digitaler Werbung

Wenn du bislang noch keine eigenen Online Kampagnen gefahren hast, ist es unumgänglich, sich mit den geläufigsten Formen der Abrechnung zu beschäftigen. Wenn du Advertiser bist, zahlst du nach diesen Modellen, und wenn du Publisher bist, wirst du nach ihnen vergütet.

Abrechnungsmodelle

Cost per Impression (CPI): Der Werbetreibende zahlt für jede Werbemittel-Einblendung auf der Seite des Publishers. Die geläufigste Form der Abrechnung erfolgt auf Tausender-Kontakt-Preis (TKP) bzw. “Cost per Mille” (CPM). Diese Form der Abrechnung eignet sich besonders für Branding- und Awareness-Kampagnen, beinhaltet aber für den Advertiser die Gefahr nicht konvertierender Impressions.

Cost per Click (CPC): Aufwandswirksam sind nur tatsächlich erfolgte Klicks auf das Werbemittel. Impressionen werden nicht berechnet. Ist die Click through Rate (CTR) einer Anzeige allerdings zu niedrig (bspw. aufgrund liebloser Headlines, Meta-Descriptions in den SERPs etc.), verliert die Anzeige durch Herabstufung in den bezahlten Ergebnissen an Visibilität. Ferner sollte unqualifizierten Klicks (durch das Interessewecken bei potentiellen Kunden ohne entsprechende Kaufkraft und damit Handlungsmöglichkeit) entgegen gewirkt werden, indem bspw. Produktpreise direkt in den Suchanzeigen miteingeblendet werden.

Cost per Acquisition: Beim CPA Modell bezahlt der Werbetreibende nur im Erfolgsfall, sprich: Wenn das Werbemittel zu einer Akquisition führt. Dies birgt für den Publisher jedoch das Risiko, wertvollen Traffic an Advertiser zu verlieren, wenn deren Conversion Rates sich im Nachhinein als zu niedrig oder deren Stornoquoten sich als zu hoch erweisen.

Cost per Engagement: Vor allem in der Video- und Appwerbung beliebte Abrechnungsform, bei der nur gezahlt wird, wenn ein User mit dem Werbemittel auf zuvor festgelegte Weise interagiert.

Preis- und Produktpolitik

Preispolitik und klassische produktpolitische Aspekte sind auf digitalen Märkten in weiten Teilen Spielregeln unterworfen, die von Porter nicht hinreichend reflektiert werden, weswegen dessen berühmte “fünf Ps” mittlerweile als überholt gelten. Gerade in Bezug auf preispolitische Hebeleffekte bieten sich online zunehmend weniger Differenzierungsmöglichkeiten, u.a. weil Vergleichsportale und Preissuchmaschinen im Zusammenspiel mit Cashback Incentives und Gutscheinangeboten dazu geführt haben, dass Konsumenten schlichtweg den besten Preis erwarten. Besonders junge Unternehmen sehen sich durch diesen Umstand oftmals gezwungen, mit (häufig als durchaus problematisch für das Wettbewerbsrecht empfundenen) Portalen wie Check24, Verifox & Co. Affiliate-Partnerschaften auszuhandeln.

In Bezug auf die Produktpolitik muss vor allem zwischen dem klassischen Ansatz unterschieden werden, der das Sortiment eines Online Shops meint, wodurch stärkerer Fokus auf einzigartige, von der Konkurrenz unterscheidbare Produkte gelegt wird, und einer Sichtweise, die neben den eigentlichen Produkten (dem, was verkauft werden soll) auch den Shop selbst bzw. bestimmte Elemente der Website, Apps und andere digitalen Assets eines Unternehmens versteht (das, was verkauft). Ein Beispiel hierfür wären bezahlpflichtige Medieninhalte, deren kostenlose Teaser gleichzeitig Verkaufstreiber als auch Teile des zu verkaufenden Produktes (in dem Fall kostenpflichtiger redaktioneller Inhalte) sind. Vertreibt ein Online Shop lediglich bereits vorhandene Produkte und entwickelt keine eigenen, kann im weiteren Sinne auch die Recherche von Keywords und Themenbereichen als Inventionsprozess verstanden werden, womit es sich bei der Keyword-Analyse von Suchanfragen um einen klassischen Market-Pull Ansatz handelt.

Als Produktinnovationen i.w.S. gelten hierbei auch aufbereitete Content Assets, die zwar auf identische Keywords abzielen, sich aber in  Gestaltung und Qualität merklich von der Konkurrenz unterscheiden – Präsentationen, Video-Content, Podcasts oder interaktive Formen wie mobile Applikationen bieten vielfältige Differenzierungsmöglichkeiten. Die wirtschaftliche Exploitation bedarf zunächst lediglich dem Vorhandensein von entsprechenden Content Assets, die im Regelfall die gewünschten Suchbegriffe zumindest in der Produktbeschreibung sowie den Meta-Tags der Website aufweisen und damit zumindest theoretisch ohne Weiteres Zutun von Suchmaschinen indexiert, gerankt und von Usern gefunden werden können. Selbst Konkurrenzprodukte, die ein Unternehmen nicht physisch im Sortiment führen kann oder will, können durch Affiliate-Lösungen und verschiedene Formen des (jüngst besonders durch Amazon FBA popularisierten) Dropshippings jederzeit ins virtuelle Sortiment aufgenommen werden, denn Online Shops selbst nehmen hierbei lediglich die Bestellung des Kunden an, während Lagerhaltung und Versand vom Großhändler oder direkt vom Hersteller übernommen werden. Kingsnorth widerspricht sich in dem Sinne also selbst, wenn er die Möglichkeit von Affiliate-Partnerschaften nicht um den Gedanken des Dropshippings bzw. anderer Monetarisierungsformen von Traffic ergänzt: „Having your shop in the right place but not having the stock in the shop is even worse.“

Wettbewerbssituation: “Faktische Konkurrenz”

Gerade Unternehmen mit langer Tradition und damit häufig eingefahrenen internen Strukturen tun sich schwer damit zu akzeptieren, dass Wettbewerbsvorteile aus der analogen Welt, wie rechtliche oder faktische Markteintrittsbarrieren, Loyalität der Stammkundschaft oder Standortvorteile, am digitalen Markt deutlich geringeren Einfluss auf die Wettbewerbsintensität einer Branche ausüben.

Konkurrent ist grundsätzlich jedes Suchergebnis, das ein Keyword besetzt, über welches ein Unternehmen Besucher und damit Kunden und Umsatz generieren könnte. Die Konkurrenzanalyse muss daher unterteilt werden in „faktische Konkurrenz“ (jede Seite Dritter, die Traffic für Suchbegriffe erhält, die auf der Seite des Unternehmens ebenfalls zu Umsatz, Leads etc. führen) und „Konkurrenz par Geschäftsmodell“. Um als Wettbewerber im Sinne faktischer Konkurrenz zu gelten, bedarf es entsprechend keinerlei Ähnlichkeit im Geschäftsmodell sondern lediglich einer Überschneidung im Keyword-Bereich. Vergleichsportale, private Blogs, Foren, Beiträge in sozialen Medien und selbst Branchenbucheinträge müssen in dem Sinne als faktische Konkurrenz in den SERP betrachtet werden.

Die neue Macht des Konsumenten

Hatte der Konsument vor der Zeit der Internets praktisch keine Möglichkeit, seinen Unmut über Dienstleistungen und Produkte öffentlich wahrnehmbar zu äußern (Beschwerdebriefe und Unmutsbekundungen per Megaphon sind mit den heutzutage erzielbaren Reichweite kaum zu vergleichen), so ermöglichten frühe Formen sozialer Medien wie Nischenforen, Gästebücher etc. bereits die Möglichkeit, sich öffentlich wirksam zu beschweren – allerdings wurden diese Formen der sozialen Kommunikation hauptsächlich von technikaffinen Menschen genutzt und führte im Zweifelsfall zu geringerem Rufschaden, da die Möglichkeit des „going viral“ zu der Zeit mangels für „normale Verbraucher“ zugänglichen bzw. genutzten Plattformen gering war.

Durch die Popularisierung von sozialen Medien wie Facebook und Twitter, die im Gegensatz zu beispielsweise Foren, E-Mails oder dem Vorgänger MySpace sowohl Möglichkeit und Anreiz bieten, Nachrichten, Statusmeldungen etc. durch einfaches „teilen“ wie einen Virus verbreiten zu können, hat sich die Macht des Konsumenten enorm gesteigert – nicht umsonst wird die klassische Stakeholder Analyse zunehmend durch Influencer Outreach ersetzt (vgl. Cole, S. 90), um Werbebotschaften über Kanäle von Personen zu verbreiten, denen gegenüber die anvisierte Zielgruppe ein hohes Maß an Vertrauen entgegenbringt.

Durch den technischen Fortschritt ist auch die Messbarkeit von User-Verhalten einfacher geworden (schließlich binden Millionen von Unternehmen die Google-eigene Analytics Lösung freiwillig ein), was dazu führte, dass Google eine riesige Anzahl an Daten und Messwerten besitzt, die durch selbstlernende Algorithmen, die Datenmuster erkennen und interpretieren, eine immer höhere Qualität erreichen. Dementsprechend macht es Sinn, dass andere Ranking-Signale, allen voran einfach zu manipulierende OnPage-Faktoren wie Keyword-Dichte, über die Jahre stark an Relevanz verloren haben und durch weniger einfach manipulierbare Signale wie Nutzerverhalten sukzessive im Gleichschritt mit der Qualität der gemessenen Daten ersetzt oder zumindest ergänzt werden.

Customer Journey

Verabschiedung vom AIDA Modell

Die Customer Journey (auch Consumer Journey genannt) bildet die “Reise” ab, die ein Kunde über verschiedene Touchpoints zwischen der Zeitspanne vom ersten Werbekontakt bishin zur erfolgreichen Conversion hinter sich legt. Die Vorstellung eines trichterförmigen und standardisierten Kaufentscheidungsprozess, wie er im allseits bekannten AIDA-Modell abgebildet und über Dekaden gelehrt wurde,  muss angesichts der ubiquitären Multiple Channel und Device Nutzung und der damit einhergehenden „Always-On“-Kultur des Connected Consumers, aus technischer Sicht durch die Entwicklungen in den Bereichen Big Data und Cloud Computing, rigoros verworfen werden. Moderne digitale Kommunikation muss mit dem Kontext und den Lebensumständen des Kunden verschmelzen – der Brand Funnel ist nicht mehr zeitgemäß, denn zukunftsfähige Modelle müssen die Consumer Journey digital abbilden können.

Konsequenzen für die ausgewählten Distributionskanäle

Auch aus der Notwendigkeit heraus, für Google als Brand wahrnehmbar zu sein, müssen Unternehmen aus „algorithmischer Sicht“ im Grunde omnipräsent auf sämtlichen Channeln agieren, die von Google als „Branded“ betrachtet werden – was die Notwendigkeit einer holistischen Marketingperspektive ein weiteres Mal betont. Um Streuverluste zu vermeiden und lediglich Bedarfsgruppen anzusprechen, empfiehlt sich jedoch nicht zuletzt aus wirtschaftlicher Sicht ein Verhindern von “Channel-Rauschen” durch Fokus auf für die Consumer Journey relevantesten Vertriebskanäle.

Konsequenzen für die Website von Unternehmen als Digital Asset

Die Entwicklung hin zum nicht-linearen Verkaufsprozess hat auch die Bedeutung der Website (im speziellen die von Online Shops) als wichtigsten Werttreiber unter den Digital Assets relativiert. Da lediglich rund 2% aller Kunden beim Erstkontakt mit einem Online Shop überhaupt zu Conversion-Events im Warenkorb führen, kann sie aus ökonomischer Sicht lediglich einen Kanal der Customer Journey darstellen, der oftmals nur mehr die Funktion einer Abwicklungs- und Transaktionsplattform erfüllt und ansonsten keinerlei Wertbeitrag liefert.

Dennoch muss kritisch angemerkt werden, dass auch Online Shops mit ansonst geringem (durch Attributionsverfahren feststellbarem) Wertbeitrag zur Customer Journey durch verschiedene Formen von Tracking-Verfahren wertvolle Daten über Besucher und ihr Verhalten sammeln, wodurch die Bedeutung des Re-Targetings über die Consumer Journey hinweg steigt, um die verbleibenden 98% der potentiellen Kunden zu erreichen, die zwar Interesse geäußert aber nicht zu Leads geworden sind. Aufgrund begrenzter Budgets müssen Unternehmen seit jeher entscheiden, in welche Werbeformen und Kanäle investiert werden soll.

Dies führt angesichts der Vielzahl an Touchpoints “digitaler” Consumer Journeys zur Notwendigkeit einer verursachungsgerechten Attribution der Wertbeiträge einzelner Kanäle, um deren tatsächlichen Einfluss auf die Kaufentscheidung des Konsumenten messen und eine entsprechende Budgetallokation sicherzustellen. Folglich variieren die Wirkungsgrade einzelner Strategien immer auch in Abhängigkeit der jeweiligen Phase des Kaufprozesses und müssen auf diesen zugeschnitten werden, weswegen Landingpages eine besondere Bedeutung zukommt, die im Folgenden erörtert werden soll.

Landingpages

Das menschliche Gehirn hat individuell zwar unterschiedliche, aber stets begrenzte Kapazitäten, die der Informationsverarbeitung Grenzen setzen. Weil nur ein Teil der Reize verarbeitet werden kann, bleibt dem Gehirn keine andere Möglichkeit, als durch Selektion und Konzentration auf bestimmte Reize eine Überflutung zu verhindern.

Die Idee hinter Landing Pages besteht darin, die (sichtbare) Informationsmenge zu verdichten, um die Entscheidungseffizienz des Nutzers zu steigern.  Landet ein Besucher über die Google Suche nach Rasendünger auf einem Garten Shop, hat er zunächst lediglich Interesse an Rasendünger geäußert. Wird er von Menüfunktionen und Slidern abgelenkt, die Pflanzgefäße verkaufen, wirkt sich das negativ auf die Conversionrate aus und schlägt sich u.a. in hohen Bounce-Rates nieder, die als User Signal wiederum vom Google Algorithmus erfasst werden und – eine gewisse Anzahl an „Wiederholungsfällen“ vorausgesetzt – die organische Sichtbarkeit von Rasendünger im Shop (ceteris paribus) verringern.

Landing Pages beinhalten auch immer sogenannte „Call to Action“ Elemente, bei denen es sich in der Regel um Buttons handelt mit konkreter Handlungsaufforderung. Der Nutzer möchte im Zuge der Mental Convenience an jeder Stelle des Conversion-Prozesses klare Anweisungen und Handlungsaufforderungen, die in ihrer optimalen Ausgestaltung allerdings stark abhängig von der Zielgruppe ist. Grundsätzlich sollte vor der Implementierung von Call to Action Buttons und Schaltflächen auch überlegt werden, welches konkrete Ziel mit der Aktivierung des Users verfolgt werden soll. Unter Makro-Conversions werden solche Aktionen verstanden, die direkten Einfluss auf die Bottom Line und damit den Geschäftserfolg haben, womit für E-Commerce-Unternehmen regelmäßig Transaktionen gemeint sind. Mikro-Conversions sind zwar ebenso wichtig, tragen allerdings nur indirekt zum Gewinn bei und können als Anzeichen verstanden werden, dass ein Nutzer sich auf dem Weg zu einer Macro-Conversion befindet.  Denkbar sind beispielsweise die Generierung von Newsletter-Abonnements oder das Übermitteln von Formulardaten zur Kontaktanfrage.

Ratsam ist auch, auf Basis der jeweiligen Stelle im Conversion Funnel weiterführenden thematisch verwandten Content mit CTA Buttons zu verlinken wie beispielsweise White Papers oder andere downloadbare Content Assets. Grundsätzlich ist davon abzuraten, funktionierende Landingpages zu kopieren oder Ergebnisse anderer Optimierungen übertragen zu wollen, da bediente Usergruppe und zu vermittelnde Botschaft vom Einzelfall abhängig sind und teilweise stark variieren. Durch die Möglichkeit des multivariaten A/B Testings muss an dieser Stelle jedoch angemerkt werden, dass die Auswahl nachweislich erfolgreicher Landing Page Varianten – etwa Templates von Anbietern wie Unbounce – für die meisten Standard-Fälle wie Pages, die auf die Generierung von Newsletter-Subscriptions oder andere „gewöhnliche“ Kennzahlen abzielen, bieten sich vorgefertigte Templates zur Generierung erster Performance-Zahlen an, die bereits während der ersten Kampagne automatisiert in verschiedenen Formen ausgeliefert werden können.

Digital Analytics: Daten an Kasse

Wie aus den vorangegangenen Ausführungen ersichtlich, kann der Wert sauber gemessener und „richtig“ interpretierter Daten als Informationslieferant über Kunden, unternehmensinterne und -externe Prozesse und Zusammenhänge und damit letztlich als Basis kontinuierlicher UX-Optimierung gar nicht hoch genug beziffert werden. Eine robuste „First-Hand“ Datenbasis ist – im Gegensatz zu jenen aus Näherungsverfahren, Schätzungen etc. – keine „strategische Entscheidungshilfe“ sondern einzige belastbare Grundlage und Legitimation für etwaige digitale Marketing-Strategien. Die Aufgabe des Marketers besteht darin, aus dieser Datenbasis abzuleiten, welche Kundensegmente auf welchen Plattformen erreicht und durch welche Werbeansprachen zu einer bestimmten Handlung gebracht werden können. Daten sind somit zweifelsohne Betriebsvermögen und kein Kostenfaktor; ferner ermöglicht die Dezentralisierung durch Cloud-Computing Lösungen, Kapital- zu Betriebskosten umzufirmieren und damit steuerlich direkt geltend zu machen. Um der semantischen Konsistenz Willen bei Metaphern zu bleiben: Daten sind das Erdöl der Zukunft, ihr Sammeln mittels Analytics das Rohöl und ihre Interpretation und „Nutzbarmachung“ die Raffinerie. Die Einführung einer Data Governance ist deshalb eine der zentralen Voraussetzungen, um als daten- und analysegetriebenes Unternehmen erfolgreich zu sein.

Gleichzeitig muss angemerkt werden, dass die Aussagekraft von Messwerten unterhalb gewisser quantitativer Schwellen gering ist. Dies soll zwar nicht als Plädoyer für Datensammelwut verstanden werden – doch auch wenn „technisch möglich“ nicht zwangsweise „ökonomisch sinnvoll“ bedeutet: Ohne ein ausreichend signifikantes Datenset steht das daraus abgeleitete Wissen in keinem (für die Datenanalyse kritischen) Benchmark-Kontext und es steigt die Gefahr einer „Strategie im Blindflug“. Ebenfalls kritisch für daten-getriebene Entscheidungen ist die Güte des angewandten Messverfahren zur Datenerhebung – ist dieses nicht robust, können die erhobenen Daten strategisch logischerweise nicht nutzbar gemacht werden.

Innovationszyklen

Die Fähigkeit des Social Listenings hat sich als zuträglich erwiesenen, Pioniergewinne zu realisieren und strategische Claims, soweit überhaupt möglich, vor der Konkurrenz abstecken zu können. Entsprechend wichtig ist es, etwa durch spezielle Monitoring Tools plattformübergreifend in direktem Kontakt mit den relevanten Zielgruppen zu bleiben. Je häufiger und länger sich bestimmte strategische und taktische Ansätze, innovative Werbemittel etc. als erfolgreich erweisen, desto größer ist die Wahrscheinlichkeit, lediglich als Trittbrettfahrer wahrgenommen zu werden oder Trends aufgrund fehlendem Social Monitoring schlicht zu verpassen.

Kürzer werdende Innovationszyklen bringen im Übrigen geringere Innovationsvorsprünge mit sich. Trends müssen nicht zuletzt aufgrund der kurzen Planungsphasen deswegen möglichst frühzeitig antizipiert & aufsteigende Plattformen (Distributionskanäle) und Keyword-Trends (bspw. Suchanfragen nach vollkommen neuen Produkten, was regelmäßig bedeutet, dass die Wettbewerbsdichte in den SERPs niedrig ist) noch vor ihrer „Popularisierung“ identifiziert und strategisch klug besetzt und bearbeitet werden.

Beispiele für Innovationen mit hohen Pioniergewinnen für Early Adopters wären für einen Channel Snapchat, für eine Werbeform personalisierte Targetingstrategien wie das Re-Targeting und für eine Marketingstrategie das individualisierte und dynamische Inbound Marketing. Einen taktischen Ansatz der jüngsten Zeit stellen sogenannte „Clickbait“ Headlines dar, welche von Plattformen wie heftig.co und der Huffington Post sozusagen zum Geschäftsmodell erklärt und derart inflationär und zum Schaden der journalistischen Qualität genutzt wurden, dass Suchalgorithmen mittels semantischer Erkennungsmuster durch spezielle “Clickbait-Filter” und Browser-Plugins die weitere Verbreitung und Nutzung dieser „Werbetaktik“ zu unterbinden versuchen.

Technologische Innovationstreiber

Verschiedene technologische Innovationen der jüngeren Zeit haben den Trend hin zum dynamischen und automatisierten Digital Marketing extrem verstärkt. So hat die Verfügbarkeit von Big Data u.a. durch Cloud-Computing und SaaS-Produkte dazu geführt, dass sich auch KMU Zugriff auf riesige Datenmengen leisten können – im Falle von Re-Targeting Listen, die mit Vertriebspartnern geteilt werden, bieten sich sogar erhebliche Einsparpotentiale durch die Nutzung von Werbekostenzuschüssen. Obgleich sich die im folgenden aufgeführten jüngsten Trends und Entwicklungen über mehrere Jahre anbahnten, hat erst ihre Kombination zu einer derart hohen Relevanz für das Marketing gesorgt, dass man von „Marketing 3.0“ sprechen könnte:

Steigende Rechenleistung: Datengetriebene Echtzeit-Personalisierung bzw. dynamischen Inhalte sowie ausgeklügelten Analytics-Systeme erfordern hohe Rechenkapazitäten.

Günstiger Datenspeicher: Die Möglichkeit, große Datenmenge dezentralisiert über Cloud-Lösungen zu speichern und diese zur Verfügung zu stellen hat dazu geführt, dass der Zugriff auf Big Data – der lange Zeit lediglich großen Konzernen wie Facebook, Google etc. vorbehalten war, nun auch bspw. über SaaS-Lösungen für KMU ökonomisch erschwinglich und strategisch ratsam ist.

Die Technisierung des Marketings: Der Fortschritt der Technologie hat dazu geführt, dass Marketing weitaus komplexere Ansätze und Techniken verfolgt als dies noch vor wenigen Jahren der Fall war. Gerade Unterdisziplinen wie Web Analytics profitieren von neuen und innovativen Attributionsverfahren, die ohne die technischen Gegebenheiten nicht denkbar wären.

Börsenstrukturen im Werbeplatzhandel: Die Werbepreisfindung in Echtzeit dynamisiert die Märkte, in programmatischen Gefilden des Werbeplatzhandels vermutet ein mancher gar “Goldgräberstimmung”. Zusätzlich vorangetrieben wird dieser Effekt durch die Globalisierung der Werbemärkte.

Die Kosten vermeintlicher Risikoaversion

(Nicht-)Markteintrittsrisiko

“I believe we are the best place in the world to fail (we have plenty of practice!), and failure and invention are inseparable twins. To invent you have to experiment, and if you know in advance that it’s going to work, it’s not an experiment. Most large organizations embrace the idea of invention, but are not willing to suffer the string of failed experiments necessary to get there. Outsized returns often come from betting against conventional wisdom, and conventional wisdom is usually right. Given a ten percent chance of a 100 times payoff, you should take that bet every time. But you’re still going to be wrong nine times out of ten.”

Während Jeffrey Bezos, CEO und Gründer von Amazon, die unternehmerische Risikofreude nicht zuletzt durch die kontinuierliche Re-Investition der jährlichen Überschüsse zum Erfolgsfaktor des Handelsgiganten erklärt, trägt die für deutsche Unternehmen geradezu charakteristische Risikoaversion ohne Frage Mitschuld an den miserablen Zukunftsprognosen hinsichtlich ihrer digitalen Überlebensfähigkeit.

Während es im klassischen Offline Geschäft alleine durch standortbedingte Markteintrittsbarrieren durchaus ratsam sein kann, mit hilfe von Marktforschungsmethoden und Business Intelligence Ansätzen (im Falle von längeren Innovationszyklen mitunter durch eine klassische Bilanzanalyse der Konkurrenz) den Erfolg oder Misserfolg erster Innovatoren abzuwarten, um anschließend auf den eigenen lokalen Märkten deren Geschäftsmodell zu kopieren. Auf digitalen Märkten genügen allerdings eine Handvoll Pioniere, um die organischen Plätze in den SERP zu besetzen und durch direkte Re-investitionen in Ranking-sichernde und -verstärkende Maßnahmen Claims abzustecken & Konkurrenten zumindest vorübergehend (Kapitalbedingte Markteintrittsbarrieren müssen wie bereits angemerkt kritisch betrachtet werden) vom organischen Markt auszuschließen.

Disruptive Marktdynamik

Geordnete, nacheinander ablaufende Prozesse mit vorhersehbaren Ergebnissen sind in der digitalen Welt oftmals betriebswirtschaftliche Anachronismen, die in Zeiten disruptiver Innovationen immer seltener beobachtet werden können. Nicht ohne Grund wird im Zusammenhang mit der digitalen Transformation von kreativer Zerstörung gesprochen, die bereits in der Wortwahl erkennen lässt, dass es sich dabei eher um chaotische als plan- und exakt beschreibbare Geschäftsprozesse handelt. In gleichem Maße, wie die durch kurze Innovationszyklen bedingte Marktdynamik risiko- und experimentierfreudigen Unternehmen nie dagewesene Chancen bietet, führt sie im Falle eines verspäteten oder gar verpassten Markteintritts zu unverhältnismäßig hohen Opportunitätskosten. Die Content-Produktion vom Vorhandensein einer belastbaren Datenbasis – etwa vorhandenen Suchvolumen im Google Keyword Planner – abhängig zu machen, bedeutet im weiteren Sinne, durch die (Pioniergewinne re-investierende) Konkurrenz der Innovatoren und Early Adopter vom Markt ausgeschlossen zu werden.

Markteintrittsrisiko im Umkehrschluss

Im Umkehrschluss lässt sich das Markteintrittsrisiko exemplarisch an der Produktion eines neuen Content Assets ableiten. Dieses besteht neben einer schlechten Performance des Contents selbst – was Leads und Conversions anbelangt – u.a. darin, dass die Zielgruppe hinsichtlich ihrer Bereitschaft, den Content über soziale Netzwerke zu teilen oder zu verlinken, überschätzt wurde. Ebenfalls denkbar ist, dass die Anzahl von Suchanfragen und damit das Marktvolumen schlicht falsch prognostiziert wurde, weil bei bislang weniger prominenten Keywords häufig keine zuverlässigen Daten durch Tools wie den Google Keyword Planner ermittelbar sind – diese werden grundsätzlich erst nach einiger Messzeit oder aus wirtschaftlichem Eigeninteresse im Falle von Google Analytics lediglich zahlungswilligen Kunden bereitgestellt.

„Vorwärts scheitern“ als Entscheidungsgrundlage

Zusammengefasst lässt sich feststellen: Je „sicherer“ und „erprobter“ eine Marketing Strategie, desto häufiger wurde sie bereits adoptiert und desto geringer ist der erzielbare Wettbewerbsvorteil. Mit der Anzahl der adoptierenden Unternehmen steigt ferner das Risiko der algorithmischen Mustererkennung und Eindämpfung der Effektivität durch Filter und Abstrafungen, während etwaige Pioniergewinne bereits von anderen realisiert wurden. Der Vorteil eigener Feldversuche und einer unternehmensübergreifenden “Trial and Error”-Kultur liegt auf der Hand. Kampagnen, deren Zielerreichungsgrade nicht die zuvor in einer Hypothese aufgestellten Vermutungen bewahrheiten, bedürfen häufig lediglich einer Optimierung durch multivariate Testverfahren, deren Grundlage wiederum stets eigene Messwerte und damit eben keine externen Industrie Benchmarks sind, die erfahrungsgemäß selten die spezifischen individuellen Parameter berücksichtigen, die für einzelne Unternehmen gelten.

Gatekeeper Google

Sichtbarkeit als Gegenleistung für Konformität

Digitale Geschäftsmodelle, allen voran das von Publishern wie Online Magazinen und Zeitungen, sind häufig stark abhängig von ihrer Visibilität in der organischen Suche. Je stärker sich eine Website an die offiziellen und inoffiziellen (daher, durch Selbstversuche festgestellte Korrelationen) Vorgaben von Google und dessen Algorithmus hält, desto höher die Wahrscheinlichkeit, in den Suchergebnissen prominent platziert zu werden. In Google prominent platzierte Webseiten wiederum werden vom User (bewusst oder unbewusst) als vertrauenswürdiger eingestuft als weniger prominent platzierte Konkurrenten.

Google selbst verdient allerdings durch bezahlte, nicht durch organische Ergebnisse Geld. Im Grunde ist jeder Klick, der auf ein organisches Suchergebnis entfällt, ein verlorener Klick für Google. Dass die organischen Ergebnisse durchaus Adsense und Co. als Instrument zur Monetarisierung können, soll an dieser Stelle ebenso ausgeklammert werden wie die Tatsache, dass sich klassische Publisher-Geschäftsmodelle häufig durch das Display Netzwerk von Google refinanzieren und ohne organischen Traffic nicht überlebensfähig sind. Dass Google ein bezahlter Klick auf ein „schlechtes“ Ergebnis lieber ist als ein unbezahlter Klick auf ein gutes Ergebnis äußerte sich jüngst in dem Umstand, dass nunmehr vier statt drei bezahlte Ergebnisse über den organischen Suchergebnissen angezeigt werden.

Dieselbe Entwicklung spiegelt sich ferner im Knowledge Graph sowie der Tatsache, dass in der Bildersuche durch Zoom-Funktion kein Aufrufen der beinhaltenden Website mehr nötig ist. Die werttreibende Funktion der organischen Suche für das Geschäftsmodell von Google besteht darin, dass sie die Qualität der Gesamterfahrung drastisch steigert. Indem Google zunehmend die User mittels Feedback durch Verhaltensmessung zur bewertenden Instanz macht und diese Ergebnisse wiederum im Algorithmus einfließen lässt, stellt sich in Zeiten von Deep Learning Algorithmen nach und nach eine Eigendynamik ein, die ein äußeres Werkeln am Algorithmus in absehbarer Zeit gar überflüssig machen wird.

„Kostenlosen“ Traffic gibt es in dem Sinn also nicht, denn das Erfüllen der Qualitätsansprüche von Google kostet ebenso Geld (Zeit, Content, Links…) wie das Schalten bezahlter Suchergebnisse – mit dem Unterschied, dass organischer Traffic zumindest theoretisch über längeren Zeitraum konstant bleiben oder gar steigen kann, solange sich die zum Ranking herangezogenen Faktoren nicht drastisch verändern, während bezahlte Suchanzeigen mit ihrem Budget enden.

Penalties als Strafen für Non-konformität

Obgleich auch Guideline-konforme Webseiten durch Updates regelmäßig Schäden erleiden (Collateral Damage), indem der Algorithmus Muster falsch interpretiert und damit z.B. nicht zwischen gekauften oder natürlichen Links unterscheiden kann, wird durch Updates der jeweiligen Algorithmen regelmäßig nach dem Rollout eines Updates “nachgebessert”, um zu Unrecht im Ranking herabgestufte Webseiten wieder Visibilität zu verschaffen.

Was Kritiker und überzeugte „White Hats“ (Oftmals lediglich Webmaster, denen die technischen Fähigkeiten und das nötige Hintergrundwissen fehlten, um ihre Webseiten mittels Manipulationstechniken prominent zu platzieren) meist pünktlich zum Jahresende als den „Tod von SEO“ bezeichneten, waren im Rückblick lediglich Änderungen und Verfeinerungen im Algorithmus, die durch das Erkennen von Mustern, die als Spam klassifiziert wurden, spezielle Techniken ihrer Effektivität beraubten bzw. diese vom Algorithmus automatisch erkennen und mit Abstrafungen  beantworten ließen.  Angefangen beim Keyword-Stuffing und der algorithmischen Erkennung von verstecktem Text, Cloaking etc. bis hin zur Bestrafung von automatisch generiertem Content konnten Webmaster selbst auf die Abstrafungen reagieren und diese aufheben, indem die beanstandeten Faktoren OnPage behoben und ein sogenannter „Reconsideration Request“ über die GWT eingereicht wurde.

Anders verhält sich bei unnatürlichen Linkprofilen (Backlinks derselben IP-Range, sich wiederholende Linktexte…), die als OffPage-Faktor grundsätzlich von jedem erzeugt werden können. Während die eigentliche Idee hinter Links aus Quellen Dritter als Rankingfaktor gegenüber OnPage-Signalen die Möglichkeiten der Manipulation seitens der Webmaster einschränken sollte, entwickelte sich durch die Möglichkeit, der Konkurrenz durch künstliche Backlinks zu schaden, mit dem sogenannten „Negative SEO“ ein eigenes Geschäftsmodell – durch die Einführung linkbasierter Penalties schlug man sozusagen der Hydra den Kopf ab.

Suchalgorithmen und ihre Bedeutung fürs Marketing

Durch mittlerweile „marktreife“ selbstlernende Algorithmen ist Google den Marketingabteilungen anderer Unternehmen immer häufiger um viele Schritte voraus. Schwachstellen im Algorithmus können von gewieften Marketern häufig nur noch im Nachhinein entdeckt werden, weshalb Blackhat-Techniken, die mit Algorithmen arbeiten (Wie bspw. Bots, die Besucherverhalten vortäuschen um die Analytics Daten zu manipulieren), gegenwärtig noch große Schwachstellen aufweisen. Dies liegt unter anderem am Kostenfaktor, denn trotz ihres enormen Potentials bezüglich der Katalysierung wirtschaftlicher Wertschöpfung handelt es sich bei Deep Learning Algorithmen nach wie vor um Instrumente, die lediglich kapitalstarken Unternehmen zugänglich sind.

Marketingabteilungen arbeiten bislang mehrheitlich mit strukturprüfenden Verfahren. Vermutete Kausalzusammenhänge von Variablen werden durch Verfahren der multivariaten Datenanalyse (speziell der multiplen Regressionsanalyse) validiert. Das Marketing muss also zuerst eine Datenveränderung feststellen bzw. einen vermuteten Zusammenhang formulieren, aus Datenmustern dann Gründe ableiten und Möglichkeiten, gegenzusteuern. Da Google und Co. mit Deep Learning Algorithmen strukturentdeckende Verfahren anwenden, die sich zudem in Echtzeit weiterentwickeln, muss sich von einer “Ceteris Paribus”-Idee grundsätzlich verabschiedet werden, denn die relevante Umwelt der Untersuchung verändert sich im Gleichschritt.

Spam-Reports: Der Denunziant als Datenlieferant

Trotz selbstlernender Algorithmen ist Google nach wie vor angewiesen auf “manuellen” Input zur Granulierung der Algorithmen. Google bietet Webmastern sowie Nutzern diverse Möglichkeiten, Suchergebnisse u.a. durch Spam-Reports, DMCA-Complainments etc. im Ranking herab zu stufen bzw. gänzlich aus den Suchergebnissen des jeweiligen Landes zu entfernen, wodurch sich nach und nach Muster erkennen lassen, die wiederum im Algorithmus eingespeist werden. Die Förderung von Denunziantentum hat System, denn je häufiger ein Webmaster valide Spam-Reporte einreicht, desto höher werden diese in ihrer Relevanz gewichtet und desto schneller werden sie von einem Quality Rater bzw. Mitarbeiter des Spam-Teams gesichtet und bearbeitet. Folglich werden auch z.B. die beanstandeten Link-Profile bzw. einzelne Links mit höherer Wahrscheinlichkeit als Spam klassifiziert, wobei die hinzugewonnen Informationen wiederum in den Algorithmus eingespeist werden, der mit zunehmender Datenmenge i.S.v. Spam-Reports immer zuverlässiger Muster erkennt.

Ranking-Faktoren

Die Faktoren, die Google zum Ranking einer Website heranzieht, sowie deren Gewichtung, unterscheiden sich u.a. nach:

  1. Art der Suchanfrage (z.B. Navigational, transaktional…)
  2. Kontext der Suchanfrage (Lokalisierung, Suchhistorie, verwendetes Endgerät…)
  3. aktueller Relevanz des Suchbegriffs (“Quality deserves Freshness”)
  4. Art der vertikalen Suche (Bilder, Videos, Blogs…)

Nicht zuletzt das RankBrain Update wird auch in Zukunft diesen Trend zu hochgradig granulierten und personalisierten Suchergebnissen verstärken. Demnach macht es wenig Sinn, Rankings unabhängig von der Art der Website, dem Kontext der Suche, der Art der Suchanfrage und dem Suchenden selbst zu betrachten.

Basisoptimierung

In Abhängigkeit von der Art der Website (Anbieter oder Ratgeber) und bspw. ihrem Link Graph im Vergleich zum Industrie-Benchmark auf die jeweiligen Umstände zugeschnittene Audits und Interpretationen von größter Wichtigkeit, um in den ersten Schritten einer Strategieformulierung nicht bereits „mit falschem Maß“ zu messen. Unter einer Basisoptimierung können hierbei sämtliche Optimierungsmaßnahmen subsumiert werden, deren Erfüllen keinen zusätzlichen positiven Einfluss, ihr Unterlassen aber mitunter schwere Visibilitätsverluste. Hierzu gehört vor allem die Performance einer Seite, die sich v.a. in Ladezeiten und Responsivität widerspiegelt, und solche Maßnahmen, die über das jeweilige Backend des gewählten Content Mangement Systems sprichwörtlich “per Mausklick abgehakt” werden können: Klar strukturierte (User-)Sitemaps, saubere Permalinks, komprimierte statt lediglich verkleinerte grafische Elemente, Meta- und allen voran Canonical-Tags, robots.txt und .htaccess etc.

OffPage Faktoren

OffPage Faktoren hingegen sind Signale, die von Webmastern selbst grundsätzlich schwieriger beeinflusst werden können, worunter vor allem auf die eigene Webseite verweisende Links (“Backlinks”) gemeint sind, die vor dem Pinguin Update noch verhältnismäßig einfach mithilfe spezieller Software oder „per Hand“ durch Kommentare in Blogs und Foren künstlich erzeugt oder schlicht gekauft wurden. Obwohl es sich bei Backlinks nach wie vor um einen der wichtigsten Faktoren handelt, muss auf eine tiefergehende Analyse an dieser Stelle verzichtet werden, da Umfang und Komplexität den Rahmen der Arbeit sprengen würden. Angemerkt werden soll lediglich, dass ein natürlicher Linkaufbau von alleine verzeichnet werden kann, sobald eine Webseite Content beinhaltet und verbreitet, den Leser als hochwertig genug erachten, um im Gegenzug verlinkt zu werden.

User Signals

Die klassische Sichtweise des Marketings auf das Konsumentenverhalten und Steuerungsmöglichkeiten desselben gehört zu den wenigen Teilbereichen, die im Laufe der Jahre durch technischen Fortschritt nicht obsolet sondern zunehmend wichtiger wurden. Die Erklärung des Zusammenhangs von Stimuli (bspw. Werbekampagnen) und Reaktionen auf dieselben (Leads, Sales, Shares, Likes…) gehört mitunter zu den spannendsten Fragen im Digital Marketing. Der Einfluss des Nutzerverhaltens auf das Ranking von Webseiten, Videos, Apps und andere digitale Assets kann auch im Hinblick auf die Zukunft gar nicht hoch genug eingeschätzt werden, denn durch Interaktion signalisiert der Nutzer messbares Interesse. User-Engagement gehört zweifelsohne zu den absoluten Zukunftsmetriken auch für das Ranking von Videos und Apps.

Google-interne Verhaltensmetriken

Google nutzt eigene interne Metriken, anhand denen bestimmt wird, ob ein Suchergebnis dem eigenen Geschäftserfolg zuträglich ist oder nicht.Obwohl diese Metriken nicht genau benannt und erläutert werden, können durch Korrelationsmessung Vermutungen aufgestellt werden. Regelmäßig können solche Korrelationen durch intelligente Analyse eigener Daten erkannt werden. Exemplarisch seien an dieser Stelle die in den Augen des Verfassers wichtigsten Verhaltensmetriken kurz erläutert:

Ein Short Click (auch „Bounce“ genannt) erfolgt, wenn ein User schnell wieder zu Google zurückkehrt, nachdem er eine Website über die Suche angeklickt hat. Verweilt er längere Zeit auf einer Seite („Long Click“), kann dies grundsätzlich als positiv gewertet werden. Gleichzeitig kann ein Short Click auch bedeuten, dass der User unmittelbar die gesuchte Antwort gefunden hat, während Inaktivität seitens des Users fälschlicherweise als Long Click interpretiert wird, sofern er keine weitere Aktion im Browser bzw. auf der Website durchführt – in dem Fall werden die meisten Analytics Tools erst nach einer halben Stunde davon ausgehen, dass der User nicht mehr aktiv ist, sofern Events zum Ausösen der selben Meldung (z.B. fünf Minuten Inaktivität beim Scrollen) nicht manuell festgelegt wurden.

Unter dem sogenannten Pogosticking versteht man das sprunghafte Wechseln zwischen Ergebnissen: Wechselt ein User mehrere Male vom Suchergebnis A zurück zu Google und wieder zum Suchergebnis B etc. kann dies an Anzeichen dafür sein, dass keine der Webseiten seine Suche „komplett“ beantwortet – oder, dass Google den Suchbegriff falsch interpretiert hat. Die wichtigste Google-interne KPI dürfte jedoch zweifelsohne der Next Click sein. Wenn Google die treffendste Antwort auf eine Frage ausliefern möchte, ist der Next Click zweifellos die aussagekräftigste Kennzahl. Kehrt ein User zurück zu den SERP und klickt ein unterschiedliches Ergebnis bei identischem Suchbegriff an (hierunter zählen auch zeitlich um Tage verzögerte Wiederholungssuchen), lässt dies auf Unzufriedenheit beim vorherigen Ergebnis schließen. Unterscheidet sich der Suchbegriff (womit auch semantisch verwandte Keywords gemeint sind), war der Nutzer wohl zufrieden mit dem Ergebnis. Angemerkt sei an dieser Stelle jedoch, dass sich das Verhalten von Usern in Suchmaschinen drastisch von dem in sozialen Netzwerken, auf Portalen etc. unterscheidet.

Studien wie jene von comScore aus dem Jahre 2015 zeigen, dass auch Engagement-Faktoren keine allgemeingültige Aussagekraft besitzen und in Abhängigkeit von Plattform und Industrie betrachtet werden müssen. Während die starke Korrelation zwischen Reichweite und Nutzung der Kategorien Social Media und Entertainment wenig verwundert, sticht in Deutschland besonders die Reichweite des deutschen Einzelhandels hervor, die im Vergleich zu anderen europäischen Ländern unüblich hoch ist.

Social Signals 

Auch wenn Google lange Zeit dementierte, dass Nutzersignale aus sozialen Netzwerken relevante Ranking-Faktoren darstellen, gelten diese zunehmend als kritisch nicht zuletzt für das Ranking von Beiträgen in den Netzwerken selbst. Das Problem bei der Feststellung der Relevanz von Facebook Likes, Shares, Tweets und Co. ist auch hier die Unterscheidung von Korrelation und Kausalität: Ein Online Shop. der in den Rankings bei Google für wichtige Keywords viel Traffic erhält und Social Buttons implementiert hat bzw. auf sozialen Netzwerken aktiv ist und über diese Traffic zum Shop sendet, wird automatisch bspw. mehr Likes haben als eine Website ohne bereits vorhandene Rankings in Google. Durch die bloße Feststellung einer Korrelation lässt sich allerdings kein Rückschluss ziehen auf den tatsächlichen Beitrag jener sozialen Signale zum organischen Ranking.

Social Listening

Das Wesen der „Kundenkommunikation 3.0“ lässt sich durch ein Zitat von Cole recht prägnant auf den Punkt bringen:

„Tue Gutes und rede darüber: Das war Marketing früher. Heute lautet das oberste Gebot der Unternehmenskommunikation: Höre zu und lerne daraus, Gutes zu tun! Kaum ein Bereich im modernen Unternehmen ist solch grundlegendem Wandel unterworfen wie diese Abteilung, die sich einst „Absatzwirtschaft“ nannte und deren Ziel darin bestand, die Produkte oder Dienstleistungen eines Unternehmens so darzustellen, dass der Käufer dieses Angebot als wünschenswert wahrnimmt.“

Das Feedback von Kunden im Sinne einer Rückkopplung ist eine der herausragendsten Eigenschaften der Digitalisierung. Dieses Feedback ist jedoch regelmäßig nicht direkt an das betroffene Unternehmen adressiert, sondern findet zunächst häufig ohne dessen Kenntnisnahme in sozialen Medien statt – umso wichtiger ist zumindest eine Ergänzung des klassischen Customer Relationship Management durch gezieltes Monitoring von kritischen Keywords bspw. durch Google Alerts.

Branchenabhängigkeit & Abhängigkeit von Art der Website

In Abhängigkeit von der Industrie, in der sich eine Website bewegt (z.B. News-Seite, Vergleichsportal…), werden mittels Benchmarks „gewöhnliches“ User-Verhalten wie bspw. durchschnittliche Click-through-Rates in Werbeformate unterteilt gemessen.

So ist es nicht verwunderlich, dass die durchschnittliche Verweildauer auf einer Film-Streaming-Plattform um ein Vielfaches höher ist als auf einer Website, die den User lediglich kurz und bündig über die aktuelle Wetterlage informieren möchte. Würde Google beide Arten von Webseiten mit gleichem Maß bewerten, was die genannten Metriken anbelangt, würde mindestens eine davon erheblichen Schaden erleiden.

Weil der Algorithmus allerdings bereits durch die Suchanfrage selbst (z.B. „anschauen“ / „streamen“ als Hinweis auf die Nutzerintention und -erwartung an die Zusammenstellung der Suchergebnisse) die jeweiligen Verhaltensmuster mit Gemeinsamkeiten in den Suchanfragen in Verbindung bringt, entsprechen die Suchergebnisse mehr und mehr der Intention der User. Folgt Suchanfragen wie „Film anschauen“ oder „Buch lesen“ regelmäßig eine exorbitant längere Verweildauer bzw. geringere Bounce-Rate, können diese Suchbegriffe durch semantisches Clustering zu Kategorien und damit Website-Arten überhaupt erst erkannt und Verhaltenssignale richtig gedeutet werden.

Ich hoffe, dir hat diese etwas längere Einführung ins Thema „Sucherfahrungsoptimierung“ gefallen und vielleicht sogar Interesse geweckt an meinem im Frühjahr erscheinenden gleichnamigen Buch, das sich umfassend und tiefgehend mit der Thematik auseinander setzt und obendrein Dutzende an spannenden Case Studies beinhaltet!

Mehr zum Thema SEO / SXO, Marketing 4.0 und Digitaler Transformation veröffentliche ich übrigens auf meinem Blog unter https://www.jeanport.de. Zudem baue ich nebenbei eine kleine Digital Marketing Akademie auf, um meine Studenten neben analogen Frontalvorlesungen auch mit „digitaler Didaktik“ auf Vordermann zu bringen. Partner werden immer gesucht!

Schaut doch Mal vorbei – ich freue mich über jeden Besucher!

Viele liebe Grüße & angenehmes Wochenende,

Euer Jean Maurice