Ad-Hoc-Analyse der Saarbrücker Zeitung

…als Ausgangspunkt zur Formulierung einer heuristischen Digitalstrategie für die OMS Gruppe im SOSTAC-Framework!

Vorwort

Um potentiellen Klienten meiner Agentur eine Idee davon zu geben, wie wir eigentlich dabei helfen, die digitale Wertschöpfung und damit die Performance des eigenen Unternehmens durch spezielle Online Marketing Techniken zu erhöhen, empfehlen sich meiner Ansicht nach vor allem Case Studies, weil sie komplizierte Sachverhalte greifbar und verständlich machen. Vor allem wird (hoffentlich) ersichtlich, was eigentlich alles hinter so ein paar Worten Beraterkauderwelsch und einer einzigen Excel-Tabelle steckt, wie viel Wissen aus unterschiedlichen Fachbereichen vonnöten ist, um wirklich dedizierte Handlungsempfehlungen aussprechen zu können und vor allem wie viele Datenquellen, Software und Zeit benötigt wird, um wirklich datengesteuerte Marketing Strategien zu formulieren.

Deswegen habe ich mich dafür entschieden, in unregelmäßigen Abständen Case Studies zu veröffentlichen, die jenen meiner eigenen Klienten zumindest gleichen. Aus offensichtlichen Gründen haben wenige meiner Klienten besonders große Lust darauf, dass ihr Wettbewerb sich nach Veröffentlichen der Case Study bei mir meldet und nach Hilfe fragt oder ganz einfach die eigene Strategie entsprechend anpasst – womit der Sinn hinter individuellen Digital Strategien ad absurdum geführt wird. Auch Google muss nicht unbedingt jeden Marketing-Schachzug mitbekommen, den wir bei manch einer Backlink Kampagne anwenden müssen, um die Konkurrenz ausstechen zu können – entsprechend geläufig ist das Unterzeichnen eines Non-Disclosure Agreements.

Die Analyse einer (Online) Zeitung eignet sich zudem auch hervorragend als Beispiel für ein Geschäftsmodell, das stärker als alle anderen von der Digitalisierung erfasst wurde und konstant über die Jahre an Attraktivität verloren hat. Weil der Print-Markt seit Jahren rückläufig ist und die Online Einnahmen nicht annähernd die Verluste der gedruckten Variante abfangen können, müssen sich Unternehmen neue Vertriebswege, Produkte und Einnahmequellen überlegen.

Die Saarbrücker Zeitung tut dies seit geraumer Zeit und zwar erfolgreicher als viele andere Tageszeitungen Deutschlands, von denen etliche vormalige Platzhirsche längst liquidiert, fusioniert oder sonst wie in ihrer Reichweite beschnitten wurden. Und während die überwiegende Mehrheit deutscher Zeitungen mehr schlecht als recht versucht, ihr offline ehemals erfolgreiches Geschäftsmodell mehr oder weniger 1:1 fürs digitale Zeitalter zu übernehmen – man denke nur an die Herangehensweise der BILD, die so ziemlich alle denkbaren Formen an Payment-Schranken, Abo-Modelle, Exklusiv-Content usw. ausprobiert hat, um ihre schmierigen Inhalte zu allem Überfluss auch noch im Netz zu vertreiben.

Die SZ schlägt mit der kontinuierlichen Erweiterung ihres Produktportfolios einen smarteren Weg ein, der weitaus mehr Spielraum für innovative und kreative Impulse bietet und für viele voneinander unabhängige Einkommensquellen sorgt. Wie nicht anders zu erwarten, hat man sich bei der SZ auf sämtliche Produkte und Dienstleistungen spezialisiert, die einen außergewöhnlich starken Bezug zu Local haben: Ein Branchenverzeichnis unter dem Namen „Allesprofis“, die saarländische Antwort auf die Huffington Post „Sol.de“, ein SZ-Geschenkeshop und mit „Saarlands Beste“ sogar eine dedizierte Seite für saarländische Ehrenämter. Auch in Richtung Plattform-Ökonomie tut sich Einiges; so führt die SZ ein eigenes Immobilienportal (immowelt.de), eine Jobbörse (Stellenanzeigen.de) und sogar digitale Traueranzeigen unter der lustig wie ein Grab klingenden Domain „trauer.de“.

Abbildung 1: Quelle: SZ

Die neuste und zugleich interessanteste Entwicklung im Produktportfolio der SZ stellt allerdings der Digitalservice der Saarbrücker Zeitung dar. Unter start.sz-digitalservice.de findet sich seit Neustem das B2B-Angebot an Marketing-Dienstleistungen von der Entwicklung eigener Websites und Apps über deren Vermarktung durch Backlinks / SEO, Social Media und Content Marketing. Während es sich beim SZ-Digitalservice aus meiner Sicht um das potentiell attraktivste Produkt im gesamten Portfolio handelt und der Schritt eine mutige und smarte Entscheidung bedeutet, ist die Umsetzung nicht weniger als unterirdisch.

Wenn es konkrete Websites trifft, für die ja auch irgendwer verantwortlich ist, halte ich mich mit harscher Kritik in der Regel zurück. Schließlich möchte ich unter keinen Umständen, dass wegen meiner Recherche- und Analysearbeit irgendein armer Student seinen Praktikumsplatz verliert, wobei es eher unwahrscheinlich ist, dass eine Einzelperson dieses Fiasko verantwortet. Rechtzeitig die Notbremse ziehen und sauber Relaunchen ist allerdings stets besser als Jahre lang ein Auge zudrücken und maximal auf Mittelmaß zu performen.

Und das Geschäftsmodell bzw. die Idee der Vorwärtsintegration entlang der Wertschöpfungskette durch Erweiterung der Geschäftstätigkeit um Online Marketing Services für Unternehmen ist schlicht und ergreifend zu vielversprechend, um auch nur einen einzigen Tag länger mit einer derart lieblos hingerotzten Seite zu verbringen. Aus diesem Grund habe ich mir am Ende des Artikels den SZ Digitalservice ausgesucht, um exemplarisch und stellvertretend für die anderen Serviceangebote der SZ auf ein paar grundlegende Baustellen hinzuweisen, die in gleicher oder zumindest stark ähnlicher Form angebotsübergreifend auf den meisten Portalen der SZ zu finden sind.

Um eine erste Idee zu bekommen, wie sich das Angebot der SZ in Zukunft erweitern könnte, dient der Blick in das Produktportfolio der OMS Tageszeitung – weitestgehend ein 1:1 Abbild der SZ – als erster Impulsgeber. Auch hier findet man neben etlichen Regional-, Stadt- und Sportportalen klassische Marktplätze bzw. Plattformen im Bereich Immobilien und Jobbörsen, Special Interest Seiten wie das Filmportal „serienfuchs.de“ sowie einer gesonderten Spieleseite, einer Plattform zum Buchen von Event-Tickets und Konzertkarten bis hin zum deutschlandweit bekannten und erfolgreichen Wirtschaftsmagazin brandeins.de. Die gesamten vierhundert Marken der OMS Gruppe finden sich übrigens hier.*

* Zwischenzeitlich wurde die Seite geändert. Weil mir die einzelne Grafik ohnehin nicht gefallen hat, habe ich darauf verzichtet, eine gecachte Version übers Wayback Archive zu ziehen und auf der Suche nach einer weiteren, besseren Quelle für das Gesamtportfolio der OMS Gruppe eine in der Rohfassung unbrauchbare Quelle gefunden. Aus dieser lies sich allerdings mit diesem grandiosen Tool eine saubere Liste der Domains des OMS-Netzwerkes extrahieren welche ich im Anhang der Analyse ebenfalls zum Download bereitstelle.

Ad-Hoc Analyse als Übung für mein SXO-Seminar

Warum sich die gründliche Analyse eines Netzwerks mit primärem Geschäftsmodell „Publisher / News Outlets“ auch regelmäßig als hilfreich beim Verständnis diverser Black- und Greyhat Praktiken erweist

Dass ich „von Haus aus“ Blackhat SEO bin und mein halbes Leben damit verbracht habe, die Suchalgorithmen von Google und Co. hinters Licht zu führen oder zumindest aktiv zu meinen Gunsten zu manipulieren, ist kein großes Geheimnis. Im Gegenteil: Ich erzähle äußerst gerne von meinen frühen Jugendjahren, in denen Webseiten noch statisch waren und mit bloßen Texteditoren zusammengefriemelt wurden. Als die erste Scrapebox Version auf den Markt kam, war es vollständig um mich geschehen und ich verließ zeitweise über Wochen mein Kinderzimmer nicht mehr. Jedenfalls kann ich mich lebhaft daran erinnern, wie ich einen ganzen Sommer begeistert alleine im Keller verbrachte, um dort mit beschränktesten Mitteln (kostenlose Proxies zu scrapen nahm einen großen Teil meiner täglichen Zeit in Anspruch…) in die Geheimnisse der Suchmaschinenoptimierung vorzudringen. Obwohl es fast zynisch klingt, im Falle von Blackhat SEO von „Optimierung“ zu sprechen, aber dazu mehr an anderer Stelle.

Als 2012 „Confessions of a Media Manipulator“ erschien, war es dann vollständig um mich geschehen. Nannte ich bis dato hauptsächlich Chuck Palahniuk’s „Fight Club“ und Kalle Lasn mit dessen Adbuster-Movement als „Philosophisches Theorie-Fundament“, trat mit Ryan Holiday ein weiterer Kopf auf meine Liste von Namen, die meine Idee von digitaler Wertschöpfung und einer gesunden, digitalisierten Gesellschaftsutopie nachhaltig prägten und prägen. Holiday verdiente sein Geld in jungen Jahren als sogenannter „Media Manipulator“. Diese Berufsgattung kann als „Blackhat“-Nische im digitalen Content Marketing verstanden werden und verfolgt das Primärziel, Falschmeldungen („Fake News“) durch diverse Taktiken und Strategien so im digitalen Ökosystem zu platzieren, dass diese sich semi-automatisch vor allem durch virale Effekte über soziale Medien verteilen – wer jetzt gedanklich Parallelen zu Growth Hacking und Guerilla Marketing zieht, liegt nicht ganz falsch. Clickbait-Headlines auf ominösen Newsportalen ohne gültiges Impressum die es bis in die Tagesschau schaffen? Genau hinter solchen unschönen Phänomenen der digitalen Revolution stecken Leute wie Ryan Holiday. Ob man diese nun Media Manipulator, Growth Hacker oder Blackhat Marketer nennt – das Aufspüren und Explorieren von Lücken sowohl in den Suchalgorithmen von Google, Facebook und Co. sowie das Kennen und rechtzeitige Antizipieren systematischer Denkfehlern im menschlichen Bewusstsein („Bias“) gehört für sie zum Alltagsgeschäft und stellt im Grunde die Frage:

„Welche Inhalte muss ich welcher Zielgruppe in welchem Kontext zeigen, um sie zu einer Handlung zu bewegen, die (un-)mittelbar in irgendeiner Weise Signale an die Suchalgorithmen von Google sendet, die wiederum positiven Einfluss auf von Google messbare Metriken unseres Digitalgeschäfts bewirkt?“

Erhöhe ich durch mehr oder weniger geschickte Clickbait-Headlines die Click-through-rate (CTR) – also das Verhältnis zwischen jenen, die die Werbeanzeige (vermutlich) gesehen und jenen, die auch draufgeklickt haben – dann kann diese Mehr an Performance einfach von Google festgestellt werden.

Und weil diese und viele weitere Taktiken vor allem für Nachrichtenportale und ähnliche Seiten im News-Bereich gewinnversprechend sind, gilt mein besonderes Augenmerk auch seit jeher den Online Präsenzen von Tagesschau und Co. Als gebürtiger Saarländer lese ich schon immer die Saarbrücker Zeitung und schätze diese nach wie vor sehr – bislang allerdings ausschließlich als Printausgabe, weil ich die Online Version nicht zuletzt aufgrund der Werbeüberlastung ungern aufrufe. Dafür eignet sich die Website der SZ umso hervorragender für eine kleine Ad-Hoc Case Study, die ich als Übung für mein SXO-Seminar nutze, weil die Saarbrücker Zeitung mit ihrer Aufmachung und ihren Inhalten den allermeisten Teilnehmern und Trainees bereits hinlänglich vertraut ist – was fachliche Berührungsängste sowie gedankliche Abstraktionsprobleme mindert.

Technisches Audit

Onpage keine Probleme!

Wie praktisch jede größere, in die Jahre gekommene Website hat auch die SZ den ein oder anderen archaischen Code-Schnipsel im Quellcode – allerdings vergleichsweise wenig. Auch klassische Onpage Kriterien werden erfüllt; Probleme mit Zertifikaten etc. gehören leider zum Alltag von Seiten dieser Größenordnung und sind kein exklusives Problem der SZ.

Erfahrungsgemäß ist davon auszugehen, dass wirklich kritische Issues wie die vollkommen inakzeptable Werbeüberlastung nicht aufs Konto der Developer in der IT geht, sondern eben von der Geschäftsleitung so entschieden wurde die sich nicht wirklich bewusst ist, welche langfristigen Performance- und damit Rentabilitätseinbußen mangelhafte SEO der eigenen Web Präsenz nach sich zieht.

Abbildung 2: Quelle: SemRush.com

Die Anzahl der wichtigen technischen SEO-Fehler hält sich wie gesagt in Grenzen. Dennoch hätten wir als Agentur über mehrere Wochen und Monate alle Hände voll zu tun, denn etliche der anstehenden SEO-Tasks werden durch das eigene CMS bzw. Customization desselben erheblich schwieriger zu lösen sein als auf Websites, die bspw. WordPress nutzen und am CMS auch nicht großartig gefummelt haben. Müssen z.B. Seiten ohne Meta Description zu Tausenden befüllt werden, gibt es in WordPress dafür garantiert ein Plugin, das eben diesen Zweck per Mausklick erfüllt. Ich könnte ewig so weitermachen. Meine Empfehlung an ausnahmslos alle Unternehmen lautet deswegen ausnahmslos: Entscheidet Euch bitte für WordPress und erspart Euch tausend Stunden an Optimierungsarbeiten, für die es fürs hauseigene CMS höchstwahrscheinlich in keinem Store der Welt ein Plugin geben wird, das uns die Arbeit erleichtert.

Abbildung 3: Quelle: SemRush.com

Wie aus der obigen Grafik ersichtlich, würden die anstehenden technischen SEO-Mängel als eigenständige, abschließbare Tasks direkt in unser agentureigenes Trello-System übermittelt und abgearbeitet werden.

Das Adblocker Problem

Wie die meisten Publisher setzt auch die Saarbrücker Zeitung mit ihrer Online Version auf das klassische Publisher-Geschäftsmodell, indem Display Werbung geschaltet und natürlich auch Re-Targeting betrieben wird (u.a. Doubleclick). Interessant wäre an dieser Stelle zu wissen, wie hoch der Anteil an Besuchern ist, die tatsächlich ohne Adblocker die SZ besuchen bzw. nicht direkt bouncen. Was einem neuen User bereits beim ersten Seitenaufruf als First Impression auf dem Bildschirm landet, ist aus Usability-Gesichtspunkten eine riesengroße Frechheit und führt dazu, dass die Ladezeiten ohne Adblocker vollkommen inakzeptabel sind – wer wundert sich dabei noch um eine derart hohe Bounce Rate!? Keine Gzip Komprimierung, kein Browser Caching, keine Priorisierung der sichtbaren Inhalte… ein Blick auf das mobile Snippet des Google Pagespeed Tools lässt unschwer erkennen, dass man sich über „Above the fold“-Abstrafungen wohl nicht ganz im Klaren ist. Anders kann ich mir beim besten Willen nicht erklären, warum die Homepage mit einer vierzeiligen Cookie-Warnung beginnen muss, dicht gefolgt von einer Bannerwerbung, die Mal eben fast die Hälfte des ohne Scrollen sichtbaren Bereichs beansprucht. Dass das Rendering blockierende bzw. verzögernde JavaScript und CSS  Ressourcen weder Inline noch asynchron geladen werden, bedarf eigentlich keiner weiteren Erwähnung. Bei fünfzig Millionen monatlichen Impressionen sollte man sich bei der SZ eigentlich bewusst sein, zu welchen Performance-Einbußen und damit finanziellen Verlusten bereits eine Verlängerung der Ladezeiten um zwei, drei Sekunden führen kann.

Abbildung 5: Quelle: SZ

Wie es für Tageszeitungen üblich ist, handelt es sich bei eingeblendeter Display Werbung fast ausschließlich um lokale Unternehmen. Das ist zwar bereits besser als gar kein Targeting; von kontextueller Relevanz kann allerdings dennoch nicht die Rede sein. Bereits hier wäre es angenehm, wenn die Anzeigen in thematisch homogene Gruppen unterteilt und entsprechend der beinhaltenden Content-Rubrik ausgespielt werden. Warum um alles in der Welt sollte sich der Besucher der Homepage für hochwertige Eigentumswohnungen, Küchenwelten oder eine gottverdammte Deckenschau (!) interessieren?

Man weiß nicht so recht, wer einem mehr leidtun soll: Die SZ, weil der Anteil an Ad Impressions, die im Browser des Endnutzers noch dargestellt werden, offensichtlich derart gering ist, dass man Rentner Udo aus S. (gelernter Schreiner, 67 Jahre alt, verheiratet) und seinen Kumpels vom Kegelverein direkt drei Layer an irrelevanter Werbung gleichzeitig um die Ohren hauen muss, um die letzten paar Cents auf Impressionsbasis zu verdienen, bevor Display endgültig totgesagt wird? Oder doch eher den Advertisern, die ihr Marketingbudget as is bestenfalls semi-optimal verwenden? Wenigstens nutzt die SZ zur Einblendung der Bannerwerbung teilweise auch die eigenen Portale, wodurch sich mit ein wenig Gerissenheit relativ einfach die Media-Performance künstlich tunen lässt. So führt ein Klick auf den Banner von Gressung z.B. direkt zum zugehörigen Eintrag auf allesprofis.de .

Abbildung 6: Quelle: SZ

Netzwerke und Werbevermittler

Die Online Version der Saarbrücker Zeitung existiert schon eine ganze Zeit lang. Normalerweise kann man sich bei Webseiten dieser Größenordnung auf ein wahres Desaster einstellen, sofern sie bereits ein paar Jahre auf dem Buckel haben. Gewöhnlich haben die Webmaster mehrmals gewechselt, sodass vereinzelt Codeschnipsel an Stellen zu finden sind, an denen sie keine Wirkung entfalten können (passiert zum Beispiel regelmäßig beim Wechsel des zugrunde liegenden Content Management Systems oder wenn Plugins entfernt werden, die für die ordentliche Darstellung von Shortcodes zuständig sind), Skripte die nicht richtig laden oder den User durch nervtötende Endlos-Schleifen jagen bis der Browser abstürzt, veraltete Code Auszeichnungen oder gar vollkommen überflüssige Meta-Tags wie „keywords=“.

Obwohl die Seite keinen Beauty-Contest gewinnen wird, kann die Hauptpräsenz der SZ als durch und durch sauber bezeichnet werden. Richtig interessant wird das Thema Quellcode Analyse aber vor allem dadurch, dass der Quelltext einer Website massig Aufschluss über die verwendeten Werbenetzwerke bietet.

So hat die SZ, was die Monetarisierung durch Werbemittel Dritter anbelangt, ihre Hausaufgaben  ohne Frage gemacht. Von klassischen deutschen Werbevermittlern wie Yieldlab und Adscale, über international ausgerichtete Netzwerke wie Advertising.com und dem eBay Partner Netzwerk bis hin zu moderneren Werbe-Technologien wie programmatischer Werbung, Behavioural targeting., Real Time Bidding oder bezahlten In-Content Formaten wie Native Advertising über Nativendo und Plista.

Das alles ist für eine Tageszeitung keine Überraschung. Ins Auge sticht jedoch direkt die Vielzahl von „Video first!“-Werbeplattformen wie StickyAds TV oder der programmatischen Variante GetIntent. Offensichtlich ist man sich der Relevanz des Mediums Video bewusst; weiß jedoch (noch) nicht so genau, wie man als Tageszeitung mehr aus dem Format rausholen kann.

Die Aufzeichnung, Analyse und intelligente Monetarisierung von Nutzerdaten – dem Rohöl des 21. Jahrhunderts, spätestens des 22. – erfolgt neben den üblichen Verdächtigen wie Google Analytics u.a. auch über Comscore, MediaMath und Krux Digital. Und dass beim Thema Daten Qualität vor Quantität geht, ist auch für die SZ nichts Neues – mit Meetrix gibt’s Ad Attention Lösungen und Viewability Benchmarks en masse. Es wird nicht nur die tatsächliche Leseaktivität und damit das effektive Engagement seitens der User gemessen sondern auch kontinuierlich die Relevanz und Qualität der Umgebung, in der die jeweiligen Artikel veröffentlicht werden – in dem Fall also die Website der SZ. Viel moderner als die vollständige Aufzeichnung und Echtzeit-Auswertung von Lese-, Scroll- und Klickverhalten geht’s momentan fast nicht. Und auch hinsichtlich der Geschwindigkeit – niemand akzeptiert 2017 noch spürbare Ladezeiten bei Tageszeitungen, die ihrer Natur nach ebenso gut über AMP laufen können, ohne aus Sicht des Users an Qualität einzubüßen – gibt es bei der SZ keinen Anlass zum Meckern. Geringe Latenzen und hohe Übertragungsgeschwindigkeiten werden u.a. durch Content Delivery Netzwerke wie Twitter CDN und Amazon CloudFront sichergestellt.

Bild links: Ob es aus welchen Gründen auch immer Absicht ist, dass gewisse Artikel in derselben Auflistung gleich sieben Mal (!) präsentiert werden (Hofft etwa ein leicht verwirrter SEO auf die siebenfache Vererbung von Linkjuice!?), oder ob es sich um einen technischen Fehler bzw. eine Misskonfiguration handelt, sei an der Stelle Mal unbeachtet. Spätestens dort, wo der rechte Widget-Bereich endet bzw. keine Inhalte mehr präsentiert, sollte aus Usability-Gründen allerdings auch die Auflistung der Artikel (optisch) unterbrochen bzw. beendet werden. Es gibt optisch ansprechendere Möglichkeiten, dem Besucher Lesevorschläge zu unterbreiten – in dem Fall wäre selbst ein Preload in einem iFrame hübscher und aus Usabity-Sicht angenehmer.

Traffic-Analyse

Die massive Anzahl an Brand Searches über die organische Google Suche schlägt sich auch in der Anzahl der Direktzugriffe nieder – also Besuchern, die die URL der SZ direkt in die Adressleiste ihres Web Browsers eingeben.

Abbildung 8: Quelle: SemRush.com

Wenig verwunderlich sind auch die 25% Traffic aus sozialen Netzwerken. Die meisten Tageszeitungen weisen nach meiner Kurzrecherche einen Anteil von 20-50% auf, ich würde sogar behaupten, eine Steigerung auf 35% würde der Ausgeglichenheit des Besucherstroms nicht schaden. Denn wie wir alle wissen, ist es eine schlechte Idee, all seine Anstrengungen auf einen einzigen Kanal zu richten: „Never put all your eggs in one basket!“, wie die Engländer so schön sagen.

Dass Display Werbung nicht genutzt wird, ist nichts Ungewöhnliches – schließlich fungiert die SZ wie die meisten Publisher hauptsächlich als Anbieter von Bannerwerbung und nicht als Nachfrager. Warum der Kanal „E-Mail“ nicht genutzt wird, bleibt mir allerdings schleierhaft. Die SZ verfügt über ihre Dutzende Schwesterseiten über einen Fundus an Kontaktinformationen, für die sie mit Sicherheit die Erlaubnis zur netzwerkübergreifenden Verwendung innehat.

An Stelle der furchtbaren, die User Experience besonders auf mobilen Endgeräten restlos zerstörenden Layer-Einblendungen sollte man sich ggf. Gedanken über schicke Opt-In Boxen machen, die in Form von Slidern z.B. zeitversetzt oder nach Regeln, die sich am Userverhalten orientieren, eingeblendet werden und im Gegenzug für eine kostenlosen Download nach einer E-Mail Adresse fragen. Mit Sicherheit mangelt es der SZ nicht an einem Fundus an Content, der längst in Kategorien unterteilt und verschlagwortet in irgendeiner Datenbank gespeichert ist. Warum nicht die eigenen Inhalte wiederverwerten und Content Specials kurieren, die wiederum zur Fütterung der Lead Generation Maschine genutzt werden? Noch einfacher als eine Zeitung hat es wohl kaum ein Geschäftsmodell, aus eigenen, bereits bestehenden und „bezahlten“ Ressourcen digitalen Mehrwert zu schöpfen.

Kein Pay-per-Click: Vergeudetes Potential?

Nicht ungewöhnlich, dafür aber auch nicht weniger blöd ist das Ignorieren von Google AdWords. Ich weiß, ich weiß – warum für Klicktraffic bezahlen, wenn derselbe Traffic anschließend auf Impressionsbasis vergütet wird? Ich sehe das Dogma „Publisher schalten keine PPC-Werbung“, das viele deutsche Zeitungen nach wie vor an den Tag legen, allerdings kritisch. Im Grunde rentiert es sich immer für ein Keyword zu bezahlen, wenn ich es schaffe, das Klickpreisbudget über genügend Konversionen wieder einzuspielen und mit Profit bezahlte Anzeigen zu schalten.

Die Grundfrage hierbei lautet: „Bin ich mir sicher, dass ich den User, für den ich im Durchschnitt xy Euro Akquisekosten zahle, durch eine passende Landingpage so in seinem Verhalten beeinflussen kann, dass er zu einer Mehrwertschöpfung beiträgt, welche die Klickkosten übersteigt? Ein Grund, aus dem viele Publisher erst gar keine bezahlte Anzeigenschaltung über Google AdWords und Co. planen, liegt in der mangelhaften Implementierung von Attributionsregeln. Wenn ich nämlich nicht weiß, zu welchem Prozentsatz bspw. ein User durch die gewünschte Handlung tatsächlich zu einem Endergebnis beiträgt, welches wiederum in seinem Wert beziffern kann, wird es ziemlich schwierig sein zu ermitteln, ob sich seine Akquise z.B. mittels Content Marketing Kampagne überhaupt lohnt.

Darum ist es auch so unglaublich wichtig, möglichst frühzeitig mit dem Messen von Performance-Daten über Google Analytics, Piwik oder einer vergleichbaren Analytics Lösung zu beginnen.

Keywords, Trends, potentielle Referrer

Für mich als SEO gibt es wenig Geschäftsmodelle die interessanter sind als jenes klassischer Publisher. Tages- und Wochenzeitungen, Magazine etc. haben alle das gleiche Problem, das sich in einem Wort zusammenfassen lässt: Adblocker. Kein Mensch hat Interesse daran, sich durch all die Werbebanner und Layer zu (miss-)klicken, nur um einen dreihundert Wort starken Artikel zu lesen. Weil aber weite Teile des Angebots der SZ über Display Werbung finanziert werden, sollten wir uns schleunigst Gedanken machen, wie der Traffic, den die SZ auf ihrer Mainsite verzeichnet, möglichst intelligent monetisiert werden kann. As is geht dem saarländischen Publisher jedenfalls eine Menge Geld durch die Lappen.

Schauen wir uns einmal genauer an, wie sich der Traffic auf der Hauptseite der Saarbrücker Zeitung in jüngster Zeit verändert hat:

Abbildung 9: Quelle: SemRush.com

Die letzten sechs Monate scheinen in einem Graph abgebildet zunächst recht konstanten Traffic verzeichnet zu haben. Allerdings führt das bloße Überfliegen der Traffic-Grafik schnell zu einem verzerrten Bild, den immerhin hat die SZ in den Monaten August auf September 2017 fast 25% des monatlichen Besucheraufkommens eingebüßt.

Woher kommt dieser massive Drop in den organischen Rankings von Google? Nachdem wir im technischen Audit bereits festgestellt haben, dass die Hauptpräsenz der SZ regelrecht vollgemüllt ist mit Banner Werbung, liegt die Vermutung nahe, dass es sich um eine algorithmische Bestrafung wegen schlechter User Experience handelt. Ein Abgleich zwischen den Rankings der SZ und den jüngsten SERP-Schwankungen durch Änderung des Algorithmus bestätigt diese Vermutung:

Abbildung 10: Quelle: SemRush.com

So wurde am 19. August ein Qualitäts-Update vonseiten Google festgestellt, welches mangelhafte User Experience bestraft:

Für viele Websites ergaben sich am 14. und 19. August wesentliche Ranking-Änderungen. Die Analyse der Muster legt nahe, dass erneut ein Qualitäts-Update implementiert wurde, das Websites mit schlechter User Experience herabstuft.“

Hierzu gehören:        

– dürftiger Inhalt mit viel Werbung
– defekte Links und/oder Flash
– geringe Relevanz zur Abfrage

Dass der Ranking-Drop durchaus zeitverzögert auftritt, ist keine Seltenheit. Ein Blick auf andere Websites, die vom Update getroffen wurden, bestätigt dies ebenfalls – manche profitierten eine Woche, andere zwei Wochen später usw. Grundsätzlich verhält es sich so, dass Updates zunächst auf englischen Seiten ausgeführt und je nach Ergebnis (sollte der Collateral Damage zu groß sein, wird regelmäßig getweakt bis sich die ungerechtfertigten Ranking-Verluste für Seiten, die eigentlich nicht betroffen sein dürften,  im Rahmen halten) anschließend auch für die europäische, chinesische, russische (…) Version.

Das am ersten September erfolgte Update zielt hingegen auf AMP-Seiten ab und sorgt dafür, dass diese mit höherer Wahrscheinlichkeit zu Snippets in der mobilen Suche führen.

Brand Searches

Abbildung 11: Quelle: SemRush.com

Nicht zuletzt aufgrund des Alters der SZ-Website darf man sich dort über stabile Evergreen-Rankings freuen, die besonders bei Brand Searches dafür sorgen, dass die SZ konstanten organischen Traffic für Suchanfragen erhält, die das Wort „Saarbrücken“ in Verbindung mit „Zeitung“ und diversen Synonymen beinhalten. Rankt eine Seite für Brand Searches nicht mehr, deutet dies in aller Regel auf eine domainweite Abstrafung hin – in den letzten zwei Jahren hat ist Google Gott sei Dank davon abgerückt und hat zunehmend einzelne Unterseiten bestraft statt ganze Domains, was auch aus User Sicht weitaus mehr Sinn macht.

High Volume Keywords

Abbildung 12: Quelle: SemRush.com

Gerade für eine Zeitung wie die SZ mit klassischem Publisher Geschäftsmodell bedeutet viel Traffic meist auch viel Revenue. Erstens, weil die Werbeanzeigen bewusst „broad“ gehalten sind und damit auch für „untargeted Traffic“ interessant – so hat zum Beispiel jeder zweite Deutsche ein Eigenheim, weswegen Werbung für Gartenmöbel für eine nicht weiter definierte, allgemeine Audienz weitaus höhere Klickraten verspricht als Werbung für Angebote, die lediglich für eine kleine, spezielle Zielgruppe interessant sind und zu entsprechend hohen Streuverlusten führen. Auch wenn auf Impressionsbasis abgerechnet wird, führt schlecht konvertierender Traffic mittelfristig nun Mal dazu, dass sich Advertiser zurückziehen.

High Volume Keywords definiere ich als solche mit einem monatlichen Suchvolumen ab zehntausend Anfragen. Hier lohnen sich Rankings im Grunde immer und selbst aus vollkommen chaotischem Traffic (womit ich Traffic meine, der ohne mein Zutun aufkommt und häufig aus Suchanfragen stammt, über die ich mir im Leben keine Gedanken gemacht habe und für die man sich das eigene Ranking nur mit viel Fantasie erklären kann) lässt sich noch Revenue rauspressen, wenn die Werbeanzeigen allgemein genug gehalten werden.

Globus, Ikea, Bank1Saar: Das alles sind Suchanfragen, für die die SZ massig Traffic abgreift. Einzig und allein, weil die Authorität in den Augen von Google im Vergleich zu konkurrierenden Suchergebnissen relativ hoch. Wichtig ist bei solchen Keywords, sich zunächst Gedanken über die Intention hinter der Suche zu machen: In welchem Kontext und mit welchem Ziel sucht der User gerade nach der Bank1Saar? Möchte er ein Konto eröffnen? Oder sucht er lediglich den nächstgelegenen Bankautomaten? Hier bietet es sich an, eine strukturierte Liste anzulegen mit möglichen Suchintentionen um sich anschließend Gedanken über die optimale Landingpage zu machen, welche den Traffic abfängt und mit vorher definiertem Ziel möglichst profitabel weiterleitet – auf ein eigenes Angebot oder eines unserer Vertriebs- und Werbepartner etwa.

Beispiel: Bank1Saar – Nutzerintention herausfinden!

Ein guter Ansatz, mögliche Intentionen hinter Suchanfragen zu finden, besteht natürlich darin, das eigene Suchverhalten zu überdenken. In welcher Situation habe ich persönlich bereits solche oder ähnliche Suchanfragen an Google gestellt? Welche Informationen habe ich für eine Beantwortung meiner Frage in welcher Form gesucht?

Abbildung 13: Quelle: Eigene Kunst

Sucht der User vielleicht den nächstgelegenen Bank1Saar Bankautomaten, so wäre ein Google Maps Eintrag auf der Landingpage der SZ hilfreich. Für den Fall, dass er über die Eröffnung eines Kontos bei der Bank1Saar nachdenkt, bietet sich eine Vergleichstabelle mit den verschiedenen Banken an, mit denen die SZ wiederum Affiliate-Verträge abschließen kann, die für jeden vermittelten Neukunden eine Provision in Aussicht stellen.

Sucht der User lediglich nach Kontaktdaten, werden diese natürlich ebenfalls eingeblendet – passender Weise direkt aus dem Branchen- und Firmenverzeichnis der Saarbrücker Zeitung und mit einer Direct-Call Funktion, damit der User die Website der SZ nicht verlassen muss bzw. das Herstellen des Kontaktes über die SZ als Referrer sauber getrackt und zugeordnet werden kann, um ggf. vereinbarte Affiliate Provisionen für den Lead zu verorten.

Dankbar wäre auch, dass der Suchende nach Erfahrungsberichten Ausschau hält, die aus der Feder „echter“ Kunden stammt und nicht etwa als Advertorial vom Herausgeber konzipiert wurde und entsprechend geringe Objektivität erwarten lässt. Betreibt der Publisher ein eigenes Nutzerforum (was häufig bei Publishern der Fall ist, die bereits seit mehr als zehn Jahren am Markt sind – leider übersehen viele neuere Zeitungen und Magazine diese Form der internen Traffic-Bindung und verlagern den User Generated Content primär in die sozialen Netzwerke) lassen sich dortige Threads nach Keyword ausspielen und einblenden.

Ebenfalls denkbar wäre eine Custom Search, die Gutefrage.net und andere Frageportale miteinschließt; für eine dauerhafte Partnerschaft wäre die Anbindung mittels API natürlich um Längen eleganter. Auch die Einblendung von Stellenausschreibungen vonseiten der Bank1Saar als Arbeitgeber dürfte für einen Teil des „Bank1Saar“-Traffics – nämlichen den, der auf der Suche nach einem neuen Job ist – überaus wertvoll sein. Idealerweise bestehen Partnerschaften mit den wichtigsten Vermittlungsplattformen wie monster.de und stepstone.de und wie immer bietet sich auch hier die An- bzw. Einbindung mittels Schnittstelle (API) an und wer faul ist nutzt eben die Google Custom Search.

Zwischen unnötigen Schwankungen und natürlicher Volatilität

Es liegt auf der Hand, dass Suchanfragen mit hohem monatlichen Suchvolumen bereits bei geringen Schwankungen im organischen Ranking zu einer hohen Volatilität der Sichtbarkeit in den SERPs führen. Nicht umsonst empfehlen Content Marketing Spezialisten auf aller Welt, möglichst viele „Long Tail“ Keywords zu belegen – also längere, speziellere Suchanfragen mit geringem Suchvolumen, für die es aufgrund ihrer Exaktheit allerdings einfacher ist, die hinter der Suche steckende Intention zu erahnen um hoch relevante Landing Pages zu erstellen, die entsprechend hohe Konversionsraten aufweisen.

In meinem Alltag als Traffic Analyst sehe ich es immer wieder, dass selbst namhafte Publisher überhaupt keine wirkliche Keyword- bzw. Content Strategie implementiert haben, sondern ihren wirtschaftlichen Erfolg einer Hand voll Keywords verdanken, für die die Website mehr oder weniger aus purem Glück (dank seitweiter Authority) rankt, bspw. für „Google Mail“, „Yahoo“ oder andern Brand Searches nach riesigen Marken auf Platz 9. Wirklich häufig gesuchte Keywords rentieren sich teilweise auch noch auf der zweiten und dritten Seite der Google Suchergebnisse – it’s all a numbers game!

Abbildung 14: Quelle: SemRush.com

Lustigerweise konnte die Saarbrücker Zeitung für den Namen meiner Heimatstadt „Neunkirchen“ einige Plätze zulegen. Auch für den Arbeitgeber einer meiner besten Freunde Scooter Attack ging es direkt satte 67 Plätze nach oben auf die 33. Für solche Fälle benötigt jeder Publisher, der aus seiner Online Präsenz das Maximum an Visibilität und damit Profit rauskitzeln möchte, einen hauseigenen Content Marketer bzw. SEO, der sich direkt mit den jeweiligen Unternehmen in Verbindung setzt um bspw. um einen Gastbeitrag zur Anreicherung des eigenen rankenden Contents zu bitten. Im Grunde gilt bei jedem größeren E-Commerce-Unternehmen, dass ein Partnerprogramm vorhanden ist, dem man relativ unkompliziert beitreten kann, um Werbemittel mit einmaligem Tracking-Code zur Einbindung in die eigene Website, zur Verbreitung in sozialen Medien usw. zu beziehen.

Die wahren Goldstücke der High Volume Keywords liegen regelmäßig auf Seite 2-5, denn hier kann bereits mit überschaubarem Arbeitseinsatz einiges an Ranking-Steigerung herausgeholt werden. So genügt häufig ein Updaten des Contents – etwa durch die Anreicherung mit weiterführenden Quellen, eine hübschere Darstellung indem Bilder und Videos beigefügt werden, der Einbindung einer Kommentiermöglichkeit zur Nutzung von nutzergenerierten Inhalten usw. Hauptsache, wir senden ein positives Signal an Google, welches uns hoffentlich schleunigst seine Spider rüberschickt, um den neuen Content zu begutachten und seine Rankings in den Suchergebnissen zu re-evaluieren.

Die hässliche Seite: Verluste in den High Volume Keywords kommen teuer zu stehen!

Abbildung 15: Quelle: SemRush.com

So erfreulich auch die verzeichneten Ranking-Steigerungen für die vorangegangen aufgezeigten Keywords sein mögen, umso schmerzhafter sind die Verluste. Besonders ein Abrutschen von der ersten Seite bedeutet in der absoluten Mehrzahl der Fälle einen vollständigen Visibilitätsverlust für das entsprechende Keyword. Für das Suchwort „SZ“ um sieben Plätze auf Position 11 zu fallen, hat beispielsweise enorm viel Traffic gekostet. Ähnlich verhält es sich auch mit Bank1Saar, welches von der 10 auf die 13 und damit auf die zweite Seite gerutscht ist – bzw. in anderen Fällen vom ersten Suchergebnis auf der zweiten Seite zum dritten oder vierten, was wiederum um Einiges weniger Traffic bringt als das Abrutschen von der Zwei (Seite 2) auf die Drei (Seite 2).

Optimierungsmöglichkeiten zuhauf!

Natürlich könnten wir zur Keyword-Strategie der SZ ein ganzes Buch schreiben und was bislang behandelt wurde, umfasst vielleicht 1% dessen, was eine professionelle Website-Analyse beinhaltet, aber wir haben bereits eine gute Idee davon, wo Potentiale zur digitalen Wertschöpfung darauf warten, von uns durch Optimierungsmaßnahmen aus SEO und SXO gehoben und realisiert zu werden.

Abbildung 16: Quelle: SemRush.com

Ich würde nach einem ersten Blick in die durch uns als Agentur überprüfbaren Zahlen behaupten, die Profitabilität der Saarbrücker Zeitung in 12-18 Monaten verdoppeln zu können. Einzig und allein durch die Formulierung und schrittweise Implementierung einer professionellen Online Marketing Strategie – allem voran natürlich einer Neuausrichtung der internen Content Strategie. Das Backlink Portfolio brauche ich mir an der Stelle gar nicht erst anzusehen, um zu erahnen, dass man den Faktor Linkbuilding nicht wirklich im Fokus hat.

Obwohl die uns zur Verfügung stehenden Zahlen bereits einige Rückschlüsse, Prognosen und Empfehlungen ermöglichen, benötigt es zur holistischen Betrachtung und seriösen Bewertung des Potentials zur Performancesteigerung allerdings auch den Daten aus der Google Search Console sowie Google Analytics. Verknüpft man diese zusätzlichen Daten mit den ohnehin vorhandenen, die von extern gemessen werden können, so erlaubt dies einen Zugriff auf Informationen, die einen höchst wertvollen Wettbewerbsvorteil bei der Gestaltung unseres Produkts (in dem Fall: Der SZ Website) bedeuten. Nicht zuletzt, weil die Nutzerfahrung umso zielgenauer personifiziert werden kann, je mehr Verhaltensdaten wir vom User zur Verfügung haben.

Weiterführendes Daten- und Analysematerial zu den Schwesterseiten der SZ

Weil das Netzwerk der SZ / OMS Gruppe mehrere Dutzend Seiten beinhaltet, ist es für eine Ad-Hoc-Analyse wohl zu viel des Guten, diese in die Gesamtanalyse miteinzubeziehen. Im Gegensatz zur Hauptdomain der SZ und weisen die Satellitenseiten stellenweise massives Optimierungspotential auf, welches bereits durch kleinste Eingriffe und SEO-Kniffe realisieren lässt. So habe ich exemplarisch fehlende Markups und AMP-Links auf der SOL Seite beigefügt:

Abbildung 17: Quelle: SemRush.com

Ticket Regional wiederum lässt ein Canonical von der http-Version auf https vermissen:

Abbildung 18: Quelle: SemRush.com

Den Arbeitsaufwand für die vorgeschlagenen Optimierungsarbeiten würde ich im Falle von Ticket Regional auf wenige Stunden schätzen bei einer zu erwartenden Performance-Steigerung von mindestens 25%. Gesetz dem Fall, ein sauberes Besuchertracking ist gewährleistet, kann bei solchen SEO-Kunden auch guten Gewissens eine Vergütung auf Performance-Basis angeboten werden. Verbessert sich Faktor xy bis zum (Datum) nicht um (Prozentwert), bezahlt der Kunde kein Geld oder erhält Teile seines Investments zurückerstattet. Im Hinterkopf behalten sollte man dabei allerdings stets, dass „Geld-zurück“-Angebote und Garantieversprechen auch meist ihre Abbildung im Preis erfahren. Wenn ich als Agentur unter einer hohen Chargeback-Rate leide, muss ich diese Verluste bzw. nachträglichen Profitschmälerungen in Rückstellungen vorwegnehmen und und und. Entsprechend vorsichtig sollten Agentur deshalb meiner Meinung nach mit Performance-basierten Vergütungsmodellen hausieren gehen. Ein Fehlgriff beim Kunden langt, und die eigene Arbeit ist komplett zunichte gemacht.

Wie man das klassische Publisher-Geschäftsmodell fit für die Zukunft macht? Die SZ macht es vor!

Wohl kaum ein anderes Geschäftsmodell hat unter der Digitalisierung mehr leiden müssen als die Publizistik. Ehemals regelrecht Gelddruck-Maschinen, haben sich Zeitungsangebote zunehmend hinter Paywall-Schranken verschanzen und den Kampf um Werbeeinnahmen nach und nach ganz aufgeben müssen. Mittlerweile publizieren die größten Player im US-Markt auf gut 20 Plattformen (https://cdn.cjr.org/wp-content/uploads/2017/03/greendots-800×594.jpg).

Das Social Web kann als zweite Welle der Disruption für Publisher-Geschäftsmodelle betrachtet werden, denn der Umstand, dass jeder Internet-User nun eigenständig Inhalte ins Netz stellen und vermarkten konnte, führte die ehemalige Gatekeeper-Funktion der Medien für Informationen, die nach Außen dringen wollten, ad absurdum. Jeder Mensch kann heutzutage in den meisten Ländern zumindest grenzenlosen Datenverkehr dazu nutzen, ein eigenes Informationsangebot zu erstellen und mit der Weltöffentlichkeit in Echtzeit zu teilen.

Was die Monetisierung durch impressionsbasierte Vergütungsmodelle anbelangt, nutzt die SZ Cross-Marketing-Potentiale, indem sie Traffic innerhalb des Netzwerkes hin- und her sendet. Dieses ist hervorragend aufgestellt, auch wenn mit Sicherheit noch lange nicht alle Potentiale ausgeschöpft sind und die ein oder andere Präsenz längst einem Re-Design unterworfen werden sollte.

Durch die Vielzahl an eigenständig monetisierten Websites wie der SZ Einkaufswelt, allesprofis.de (…) braucht man sich jedenfalls nicht vor kurzzeitigen Traffic-Einbrüchen zu fürchten. Vielleicht liegt aber gerade dort die Gefahr, denn was die Generierung von Leads anbelangt, lassen sämtliche Seiten im Netzwerk zu wünschen übrig – ich würde Mal ganz frech behaupten, die Lead-Rate innerhalb eines Monats verdoppeln zu können. Während es an dieser Stelle wenig sinnvoll ist, sämtliche Seiten der SZ tiefer zu analysieren, kann ich mir für die Zukunft durchaus die Analyse einzelner Seiten bzw. deren Geschäftsmodell vorstellen.

Interessant finde ich vor allem den Markt für personalisierte Artikel, die bei der SZ-Seite von der Weihnachtskugel bis zur personalisierten Babydecke reichen. Erst letzte Woche hatte ich Kontakt zu einem Anbieter personalisierter Werbeartikel wie bedruckter Fahrradsattel, Mauspads und Co. von denen ich dachte, dass der Markt fest in der Hand einiger weniger Player wie Vistaprint liegt – scheinbar habe ich mich geirrt?

Abbildung 19: Quelle: SemRush.com

Die naheliegendste Geschäftsmodell-Erweiterung für eine Tageszeitung liegt wohl im lokalen Branchenverzeichnis. Im Grunde handelt es sich bei allesprofis.de um ein riesiges Kontaktverzeichnis interessanter Unternehmen, die offensichtlich Interesse an gesteigerter Online Sichtbarkeit haben. Smarte Agenturen im Raum Saarbrücken und Umgebung dürften das Verzeichnis jedenfalls regelmäßig zur Kontaktaufnahme nutzen.  Durch Web Scraping (z.B. mithilfe von Regular Expressions) lassen sich die Datenbankeinträge auf allesprofis.de mit ein paar wenigen Mausklicks in eine strukturierte Form bspw. in eine Excel Tabelle überführen. Erstaunlich hoch sind die lokalen Suchanfragen vor allem angesichts der Möglichkeit, diese direkt in Google Maps einzugeben. Den „Umweg“ über den Google Suchschlitz machen sich also nach wie vor erstaunlich viele User – Google hat nicht umsonst sämtliche Services immer bequemer in die eigentliche Suchmaschine integriert, sodass im einfachsten Use Case via Sprachbefehl sogar bei ausgeschaltetem Display die relevanten Google-Apps angesteuert werden können.

Abbildung 20: Quelle: SemRush.com

Allerdings darf man bei der Betrachtung von Geschäftsmodellen wie „Allesprofis.de“ nicht außer Acht lassen, dass die Seite in direkter Konkurrenz zu Google Maps steht, denn sowohl die Branchenbucheinträge wie auch die User Reviews sind im Grunde Services, die Google mit hauseigenen Produkten anbietet. Wie erfahrene Online Marketer über die Jahre immer wieder erfahren mussten, tendiert Google mehr und mehr zum Content Scraper, der zwar die nützlichen Inhalte aus den Webseiten Dritter extrahiert, im Gegenzug aber keinen Besucher Traffic sendet, weil die User Intention (Die Beantwortung einer Frage) längst von Google erfüllt wurde – ganz ohne einen User dafür an einen Website-Betreiber zu „verlieren“.

Zudem dürfte es Google auch nicht sonderlich schwerfallen, einen pseudo-validen Grund dafür zu finden, den von allesprofis.de angebotenen Content als dünn zu betrachten. Ein Argument hat Google jedenfalls bereits in petto: Einzigartig ist das Angebot der SZ auf keinen Fall, denn schließlich betreibt man mit Google ein starkes Konkurrenzprodukt, für das sich viele Gründe finden lassen, aus denen es für eine Vielzahl der Suchanfragen über denen der Konkurrenz ranken sollte – angefangen bei der schieren Menge an Reviews, deren Quantität nun Mal ein zuverlässiger Vertrauensfaktor darstellt, bis hinüber zur Tatsache, dass man bei Maps über in Echtzeit aktualisierte Daten verfügt und bspw. Zufahrtsbeschränkungen aufgrund von Baustellen vor Ort angezeigt werden, die in einem gewöhnlichen statischen Branchenbuch wie AP.de schlichtweg fehlen – sofern sie nicht von Google Maps bezogen werden.

Internes & externes Linkportfolio

Internes Linkbuilding: Massig Potentiale durch interne Linkjuice-Optimierung!

Die SZ Verlagsgruppe verfügt nicht nur über ein Website-Netzwerk mit Dutzenden eigenständiger Domains – fast jede dieser Webseiten hat unterschiedliche Subdomains wie http://service.saarbruecker-zeitung.de/ oder http://mittagessen.saarbruecker-zeitung.de, die bislang jedenfalls nicht bewusst und taktisch klug untereinander verlinkt bzw. für Deeplinks genutzt werden, um wertvollen Linkjuice auf strategisch wichtige Landingpages im Netzwerk zu transferieren um deren organische Visibilität zu steigern. Subdomains wie die Mittagessen-Seite erfüllen schließlich keine kommerzielle Funktion oder steigern die unmittelbare SEO-Wertschöpfung. Allein durch den Reifeprozess (also das Alter seit Erstindexierung in Google) von Content entsteht Pagerank / Linkjuice. Diesen einfach „Auf gut Glück“ durchs Netzwerk fließen zu lassen, ohne ihn sinnvoll zu channeln, ist womöglich einer der am häufigsten begangenen Fehler in der internen strategischen SEO-Optimierung.

Während eine vollständige Analyse aller im Google Index indexierter Seiten zwar bitter notwendig, aber vom Zeit- und Arbeitsaufwand für die vorliegende Analyse übertrieben wäre, habe ich mich dazu entschieden, den Linkjuice-Check diverser Seiten und Subdomains der SZ Main Domain exemplarisch auf knapp dreißig Landingpages und SD’s zu beschränken.

Abbildung 21: Page Authority Werte der SZ und ihrer Subdomains

Aus der Grafik ersichtlich: Während die Domain Authority unverändert bleibt (schließlich liegen auch die Subdomains auf der Main Domain der SZ), darf dies nicht darüber hinwegtäuschen, dass die verschiedenen SD’s in Wirklichkeit natürlich eigene Domain Authority besitzen, die von der Main Domain stark abweichen dürfte. Jedenfalls ist ein ausgehender Link von der MD wesentlich stärker als bspw. von der Beilagen-SD. Die Metriken sind auf den ersten Blick also identisch; müssen aber auf Subdomainbasis allerdings differenziert betrachtet werden – viel aussagekräftiger sind für die Linkjuice Analyse Page Authority und MozRank.

Abbildung 22: PA der Seiten im OMS Netzwerk

Die Anzahl der ausgehenden („External“) Links einer Landingpage lässt zum einen auf ihren Zweck schließen (ein Unternehmensverzeichnis o.ä. hat naturgemäß hunderte von ausgehenden Links und entsprechend geringes eigenes Ranking-Potential), zum anderen auf die Wertigkeit eines weiteren Links. Man könnte in dem Bezug von „negativen Grenzkosten“ sprechen, weil der pro Link vererbte PageRank mit der Gesamtzahl der Links logischer Weise mit der Authority der einzelnen Landingpage sinkt  – und sich aus dieser wiederum negative Effekte auf die organische Visibilität der linkgebenden Domain ergeben, wodurch mittelfristig eine Art „Authority-Kannibalismus“ eintritt.

Windige Linkverkäufer gehen übrigens gerne dazu über, in kurzer Zeit massig Backlinks zu verkaufen, weil es durchaus seine Zeit dauern kann, bis Moz und Co. die neuen ausgehenden Links zur korrekten Berechnung der tatsächlichen Metriken miteinbeziehen. So kann es durchaus vorkommen, dass ich Geld für einen Link zahle, der zwar von einer Landingpage mit validem PageRank / MozRank (…) stammt – dieser Wert sinkt aber drastisch in den Keller, sobald der Linkjuice „gerecht“ berechnet wird. Von „nofollow“-Attributen zu Zwecken des Linkjuice-Channelings ganz zu schweigen – im Zweifelsfall immer den SEO Ihres Vertrauens fragen.

Externes Linkbuilding

Abbildung 23: Quelle: moz.com

Mit einer DA von 64 lässt sich erahnen, wie das Linkportfolio der SZ nach gut 20 Jahren ihres Online-Bestehens aussehen mag. Rund 9.000 Domains verlinken die SZ in irgendeiner Art und Weise; insgesamt 2,6 Millionen Inbound Links lassen auf ein ausgewogenes Verhältnis zwischen Domain- und Deeplinks schließen, was im Falle einer Zeitung auch unbedingt notwendig, weil natürlich ist. Verweisen mehr Links auf die Hauptdomain einer Website, deren Geschäftsmodell das Publizieren Dutzender Artikel pro Tag umschließt, würden bei Google sämtliche Spam-Detektoren für unnatürliche Linkprofile anspringen.

118 rankende Keywords (Quelle: moz.com) erscheint mir dann aber doch ein wenig zu niedrig gegriffen. Wie immer bei SEO-Analysen gilt es auch hier, auffallende Metriken doppelt und dreifach zu checken: Natürlich handelt es sich um organische Positionen zwischen 1 und 50 und zudem überprüft Moz die Rankings für Google.us – die für die Saarbrücker Zeitung entsprechend niedrig ausfallen.

Abbildung 24: Quelle: Moz.com

Ein genauerer Check der Inbound Links bestätigt die Vermutung, dass Wikipedia wie für renommierte Zeitungen üblich einer der prominentesten Linkgeber mit wahnsinnig hoher Authority ist. Trotz domainweitem nofollow-Attribut lässt sich der Wert zahlreicher Wikipedia (Deep-)links gar nicht hoch genug einschätzen & sollte noch wesentlicher aktiver angegangen werden. Ich kann mir gut vorstellen, dass die Saarbrücker Zeitung über genügend hochwertige Connections in Richtung Parlament und Co. verfügt, um auch von staatlichen Webseiten wie dem Kultusministerium etc. saubere hochwertige Links zu akquirieren. Obwohl es in Deutschland keine dedizierten „.gov“ oder „.edu“ Top Level Domains gibt, die eine staatliche Inhaberschaft direkt erkennen lassen und entsprechend hohes Vertrauen in den Augen von Google und Co. genießen, erkennt Google trotzdem den Unterschied zwischen der offiziellen Seite des Bundestags und einem privaten Modeblog. Links wie jener von der BBC Seite (www.bbc.co.uk/‎news/world-europe-38948674‎) mit einer PA von sagenhaften 56 haben stärkeren Einfluss auf die Bottom Line als es vielen Webmastern bewusst ist.

Das klassische Argument gegen ein laufendes Investment in Online Marketing und SEO lautet für gewöhnlich „Irgendwas mit Kosten“ und „schwierige Attribution“. Beide Punkte sind gerechtfertigt, denn tatsächlich kostet ein mehr an Marketing zunächst Geld. Wird dieses jedoch z.B. für Evergreen Content verwendet, profitiert die Seite den Rest ihres Bestehens vom zusätzlich generierten PageRank, gesteigerter potentieller Visibilität etc. An Ideen für Linkbait-Kampagnen mangelt es angesichts der zahlreichen Best Practices englischer Tageszeitungen ebenfalls nicht. Gewinnspiele über Social Media, Sponsoring und Co. lassen der Fantasie keine Grenzen.

Abbildung 25: Ein erster Blick aufs SEO-Dashboard lässt durchatmen – weit verbreitete, gravierende SEO-Fehltritte sind bei der SZ jedenfalls nicht an der Tagesordnung. Quelle: Moz.com

Dass man bei der Saarbrücker Zeitung von Anfang an darauf verzichtet hat, allzu schwarzes SEO anzuwenden, gibt es hinsichtlich der verwendeten Linktexte und deren Verhältnis ebenso wenig zu beanstanden als bei der DA-Verteilung der linkgebenden Domains. Tatsächlich weist die geringe Anzahl von Links im untersten DA-Spektrum bis einem Wert von 10 gegenüber dem nächsthöheren Spektrum von 11-20 wortwörtlich auf eine „weiße Weste“ hin.

Denn Seiten, die skaliertes & automatisiertes Linkbuilding betreiben, platzieren ihre Links hauptsächlich auf „toten“ Domains (etwa Blogs mit automatischer Genehmigung von Leserkommentaren, Gästebücher, gehackte Seiten…) oder nutzen Tools wie xRumer, um in kürzester Zeit abertausende von Profillinks in Foren anzulegen die aufgrund der schieren Anzahl ausgehender Links über kurz oder lang ihre eigene Authority verlieren, woraufhin die organische Visibilität der linkgebenden Domain quasi mangels Linkjuice verdurstet, was für die SZ in dem Fall massenweise 1-10 DA Backlinks bedeuten würde.

Spamlinks entfernen!

Abbildung 26: Beeinflussen das organische SZ-Ranking bestenfalls gar nicht: Ultra-spammige Backlinks zu tausenden!
Quelle: moz.com

Riesiges Potential zur Verbesserung des Google-Rankings bieten die zigtausend toxischen Backlinks bzw. deren Eliminierung. Leider kann ich als Dritter ohne Zugriff auf die empfindlichen Metriken der SZ (ein Blick in die Google Webmaster Tools würden genügen ) erkennen, ob man ein entsprechendes Disavow-File, welches in regelmäßigen Abständen um neue Spamlinks ergänzt wird, bereits angelegt und eingereicht hat. Falls nicht, dürften hier angesichts der 7,5% linkgebender Domains mit einer Spamscore > 31% mit wenigen Mausklicks ungeahnte Dimensionen an Traffic-Steigerung möglich sein. In der Vergangenheit habe ich Webseiten für ihre wichtigsten Suchbegriffe innerhalb weniger Wochen von Seite 3-5 auf die erste Ergebnisseite in Google wandern sehen, nur weil man sich die fünf Minuten Zeit genommen hat, das eigene Linkportfolio sorgfältig zu analysieren und um toxische Backlinks zu bereinigen.

Abbildung 27: Spam Score Breakdown. 7,5% der linkgebenden Domains (!) mit einer SS zwischen 31-100%

Hierfür ist es allerdings auch zwingend notwendig, die entsprechenden Tools zu besitzen. Weil deren Anschaffung meistens mit monatlichen Fixkosten verbunden ist, die schnell mehrere hundert Euro pro Monat betragen, empfiehlt es sich in aller Regel gerade für kleinere Unternehmen und Webseiten, SEO-Tätigkeiten an so dufte Typen wie mich zu delegieren. Die potentiellen wirtschaftlichen Schäden, die stümpferhaftes SEO anrichten kann, stehen ganz einfach in keinem Verhältnis zu den paar Euros, die professionelles SEO-Consulting und monatliche Betreuung kosten – schließlich handelt es sich bei gutem Online Marketing stets um ein für den langfristigen Geschäftserfolg kritisches Unterfangen, welches bereits nach wenigen Wochen bis Monaten zu Umsatzsteigerungen führt, auf die es sich kein digitales Business leisten kann, zu verzichten. Denn wenn ich mein Linkportfolio nicht auf Vordermann bringe, macht es meine Konkurrenz ganz bestimmt!

Abbildung 28: Durch die Reduktion externer Links / Outbound Domains wichtiger interner Landing Pages lässt sich deren Google-Ranking „über Nacht“ verbessern!
Quelle: moz.com

Broken Links reparieren oder weiterleiten!

Nichts ist ärgerlicher als ein Link, der zu einer 404-Fehlerseite führt. Oder im schlimmsten Fall ins virtuelle Nirgendwo. Besonders in die Jahre gekommene Webseiten strotzen oftmals regelrecht vor lauter kaputten Links, die weder die gefühlte Usability verbessern noch die algorithmisch messbare in den Augen von Google. Zu viele fehlerhafte Links gehören zu den häufigsten Fallstricken und sind nicht weniger dramatisch als toxische Backlinks.

Im Anhang habe ich zu Demonstrationszwecken eine abgespackte Liste mit toten Links bereitgestellt. Im Real Life würden diese natürlich auf Seitenbasis erstellt und anschließend je nach verwendetem CMS umgeleitet über ein Plugin (WordPress) oder die .htaccess Datei auf die jeder Webmaster Zugriff über seinen Hosting Anbieter erhält. Im Optimalfall wird ein toter Link auf eine Landingpage weitergeleitet, welche thematisch dem ursprünglichen Linkziel wenigstens nahekommt. Leite ich bspw. jeden 404-Fehler bzw. kaputten Deeplink mittels 301-Weiterleitung auf eine neue, thematisch nicht relevante Landingpage weiter, behandelt Google dieses Vorgehen als „Soft 404“ und leitet entsprechend wenig bis keinen PageRank weiter. Weil es besonders unter WordPress-Usern beliebt ist, mittels Plugin sämtliche (!) 404-Fehlermeldungen einfach mittels 301-Redirect auf die Hauptdomain umzuleiten in der Hoffnung auf Linkjuice-Vererbung kämpft gegen Windmühlen. Leider ist Google mittlerweile smarter als 2011 😉

Channel Analyse: Welche Kanäle bieten Potentiale?

Mobile Apps

„Mobile first!“ könnte zu einem Problem werden. Die SZ hat zwar eine App im Google Play Store, deren Performance lässt allerdings zu wünschen übrig. Das letzte Update liegt lediglich eine Woche zurück & nach Überfliegen der Nutzerkommentare lässt sich annehmen, dass sich Handling und Performance über die nächsten Monate weiter verbessern werden. Bemängelte Klassiker sind Darstellungsfehler in der Responsivität bzw. der fixen Schrift- und Bildergröße die sich nicht erhöhen lässt.

Aufgabe:

Welche weiteren Kanäle sind für die SZ womöglich erfolgsversprechend? Mit welchen Taktiken und Strategien könnten diese Kanäle bearbeitet werden, um maximalen ROI zu generieren und gleichzeitig eine langfristige Lesertreue zu gewährleisten?

Aufgabe:

Lesen Sie das Fazit zum Geschäftsmodell (weiter unten) und verfassen Sie anschließend eine kurze Zusammenfassung der Ad-Hoc-Analyse und ihrer wichtigsten Ergebnisse. Versuchen Sie bitte, in den taktischen Empfehlungen (Einsatz von Tools, Fokus auf konkrete KPIs…) wo sinnvoll und möglich Bezug zu nehmen auf generalisierbare Probleme des Geschäftsmodells „Publisher“ und skizzieren Sie mögliche Dienstleistungsangebote, die branchenweit an Publisher vertrieben werden könnten (bspw. statt „Sponsored Content“ eigenes Content Marketing betreiben, um KPI „branded assets“ xy zu optimieren).

Fazit

Zum Geschäftsmodell „Publisher“ generell

Dass sich nicht nur der analoge, landbasierte Journalismus, sondern auch sein virtuelles Äquivalent in Form des Online Journalismus angesichts fehlender Geschäftsmodellinnovationen auf einem steil absteigenden Ast befinden, ist beileibe kein Geheimnis mehr. Wir warten immer noch sehnsüchtig auf die Geschäftsmodellinnovation, die den digitalen Journalismus vor seinem natürlichen Aus rettet.

Den Beitrag zur gesellschaftlichen Wertschöpfung als pragmatisches, aber taugliches Unterscheidungskriterium zur Differenzierung von „Content“ gegenüber wirklichen journalistischen Inhalten hat Shane Snow bereits 2014 in seinem Blogpost „The Business Model that will save Journalism“ skizziert: Wahrer Journalismus „ (…) exposes injustice and reports news that’s important for democracy and society (…)“, während klassische „News“ dies eben gerade nicht tun, sondern den Rezipienten vielmehr mit übertrieben inszenierten Schockmeldungen emotional fesseln – nicht zuletzt, um sein Aufmerksamkeitslevel für den nächsten Werbeclip auf ein möglichst hohes Niveau zu heben.

Kommerzieller Journalismus – und welcher Autor muss seine Arbeit nicht irgendwie refinanzieren? – sieht sich seit jeher dem moralischen Dilemma zwischen möglichst objektiver Berichterstattung und der Notwendigkeit zur Erzielung von Gewinnen durch Werbeinnahmen ausgesetzt. Denn was sarkastisch klingt, muss nicht weniger wahr sein: Niemand möchte eine Werbeanzeige schalten, die neben einem Beitrag zum letzten Schulamoklauf platziert wird. Und während der konkrete thematische Inhalt einer Publikation schon immer seine Leserschaft und damit die Werbekunden und ihre Zahlungsbereitschaft bestimmt haben, hat sich dieser Effekt in Zeiten von automatischer kontextueller Werbeeinblendungen über Google Adwords und Co. ins Unermessliche erhöht. Läuft man Gefahr, durch die Veröffentlichung einer wichtigen Meldung Werbekunden zu verlieren, weil die ihre Werbeanzeigen wiederum lieber im Kontext mit fröhlichen Gesichtern und gesunden Familien sehen, verzichtet man im Zweifelsfall eben auf die Wahrheit oder re-interpretiert sie in ihrer Darstellung zu eigenen Gunsten.

Die Frage nach Alleinstellungsmerkmal und gefühlter Wertschöpfung beim Rezipienten

Welche Gründe habe ich selbst eigentlich, jeden Morgen den Aufwand auf mich zu nehmen, mir die Printausgabe der Saarbrücker Zeitung zu besorgen um diese anschließend umständlicher als nötig über dem halben Frühstückstisch ausgebreitet zu lesen, wo es doch an digitalen Endgeräten wahrhaftig nicht mangelt? Ist es die Haptik; das Gefühl, etwas „Echtes“ in Händen zu halten? Mag ich den charakteristischen Geruch frischer Druckerfarbe am Morgen? Wer weiß. Für nachkommende Generationen wird jener Retro-Charme einer gedruckten Printausgabe in Händen allerdings keine wohligen Kindheitserinnerungen hervorrufen und damit auch keine positiven Emotionen assoziieren. Soll der Saarbrücker Zeitung und ihren Branchenkollegen das eigene Geschäftsmodell also nicht regelrecht unter den Füßen wegsterben, ist es bitter notwendig, alternative Cashflows zu etablieren, die nachhaltig verlässliche Einnahmen generieren.

An innovativen Ideen zur Monetarisierung digitaler Inhalte und Geschäftsmodellinnovationen für Publisher und klassische News Outlets mangelt es im Grunde nicht – der Teufel steckt allerdings wie so oft im Detail, denn gerade für größere Publisher wie die Saarbrücker Zeitung fallen Abo-Modelle, Micropayments und Co. mangels Spezialisierung als Nischenpublisher als Monetarisierungsstategie in der Performance erwartungsgemäß schwach aus. Niemand zahlt für eine tägliche Vielzahl an womöglich vollkommen uninteressanten Meldungen, die es zudem in nahezu identischer Form an anderer Stelle mit Sicherheit kostenlos gibt – wie subjektiv gefärbt soll eine Meldung über aktuelle Verkehrsunfälle und Staus im Höchstfall schon sein?

Der entscheidende Vorteil der Saarbrücker Zeitung und anderer Regionalzeitungen liegt zweifelsohne in der örtlichen Nähe zu den allermeisten Ereignissen, die letztlich Gegenstand der Berichterstattungen werden. Hintergrundrecherchen vor Ort, der Einsatz von Leserfotografen und -reportern sowie die verhältnismäßig einfache Pflege von Partnerschaften mit regionalen Unternehmen und das zusätzliche Vertrauen, das besonders langjährige Anwohner und Leser ihrer Stammzeitung entgegenbringen, können ebenso wie Regiohubs nicht so einfach von der Konkurrenz kopiert werden. Warum nicht die Redaktion eine Vorauswahl denkbarer Exklusiv-Regional-Recherchen anfertigen lassen und die Leser per Crowd-Funding zur Abstimmung zu bewegen, um den potentiellen „Streuverlust“ im Sinne vom thematischen Inhalt enttäuschter Leser im Vorhinein auf null zu reduzieren?

Die Zukunft gehört den Nischen-Publishern!

Das klassische Publisher-Geschäftsmodell steht nicht erst seit gestern vor einem großen roten Fragezeichen. Die erste Welle der Disruption führte zum Unbundling der Medienprodukte in eine Vielzahl von Vertikalen. Das Unbundling geht auch heute weiter, indem die Überschriften von Artikeln in Aggregatoren zusammengefasst werden und selbst Leserkommentare zu Artikeln zunehmend über externe Plattformen laufen bzw. dort gespeichert werden. Nicht umsonst publizieren etliche Unternehmen regelmäßig auf Dutzenden von Plattformen gleichzeitig. Wenig später begann mit dem Social Web das Wegfallen der Gatekeeper. War es früher praktisch unmöglich, eine größere Zielgruppe zu erreichen, ohne über die etablierten Publisher im jeweiligen Marktsegment zu veröffentlichen, kann mittlerweile jeder versierte Schreiberling erfolgreicher Publisher werden.

Weil kein gewöhnlicher Publisher auch nur annähernd genügend Marktmacht akquirieren könnte, um Plattformen wie Facebook ernsthaft Konkurrenz zu machen, bleibt oftmals lediglich die Möglichkeit, sich zu einem Nischen-Publisher zu formieren. Die klassischen Massenmedien mit breit gefächertem Content gehören der Vergangenheit an – jedenfalls abseits von den Platzhirschen wie Facebook und Co. Auch Content Portfolios im Zuge eines professionalisierten Content Asset Managements sind eine smarte Idee. So lässt sich zu unterschiedlichen Geschäftsmodellen gezielt passender Content erstellen, der sich wiederum hervorragend auf dedizierten Subdomains mit eigenem Design, Menüpunkten etc. veröffentlichen lässt – wie es die Saarbrücker Zeitung bspw. seit Jahren erfolgreich betreibt.

Unterschiedlichen Content nach Funktionen unterteilen

Denkbar wäre hier zusätzlich zur Subdomain-Strategie eine weitere thematische Unterteilung mit dem Ziel, Content nach Funktion zu unterscheiden und je nach erhoffter Wirkung beim Leser über die verschiedenen Touchpoints der Customer Journeys zu verteilen bzw. dort sinnvoll zu platzieren. So dienen reine News-Meldungen lediglich, um neue User auf den Brand aufmerksam zu machen – zum E-Mail-Subscriber wird dadurch aber kaum ein Leser.
Abonnenten erhalten werbefreie Premium-Inhalte, anderer Content wiederum wird zum Upselling verwendet um kostenlose Subscriber zum Abonnieren von bezahlpflichtigen Inhalten zu bewegen etc. Hierdurch soll die ARPU (“Average Revenue per User”) optimiert werden.

Die große Frage lautet: Wer bezahlt die Publisher für ihren Content?

Auf Facebook als wirtschaftlich lukrative Veröffentlichungsplattform zu setzen, ist angesichts der abertausenden von Publishern reines Wunschdenken. Es ist wohl eher unrealistisch anzunehmen, dass etablierte analoge Tages- und Wochenzeitungen die Produktionskosten für ihre Inhalte auch nur annähernd über Facebook refinanziert bekommen – dafür fällt die Click-through-Rate ebenso wie der % Anteil, den Facebook seinen Publishern an den Werbeeinnahmen abdrückt, viel zu gering aus. Die Zukunft der meisten Publisher wird also davon abhängen, ob sie rechtzeitig ausreichend lukrative Geschäftsmodellinnovationen in ihr Angebot integriert bekommen, bevor sie wie ihre weniger glücklichen Vorgänger in den ewigen Jagdgründen des nicht-monetarisierbaren Online Contents verschwinden.

Abschließende Übungsaufgaben:

  1. Welches Fazit würden Sie nach eingehender Lektüre der vorliegenden Analyse für die digitale Strategie der OMS Gruppe / der Saarbrücker Zeitung ziehen?
  2. Welche kritischen Aspekte wurden in der vorliegenden Ad-Hoc-Analyse bislang weitgehend ignoriert und müssten als integraler Bestandteil zwingend weiter auf Wertschöpfungspotentiale untersucht und präsentiert werden?
  3. Skizzieren Sie fünf unterschiedliche Geschäftsmodellinnovationen, mit denen die OMS Gruppe ihre monatlichen Zahlungsströme optimieren könnte. Nutzen Sie dabei bitte die Worte „Working Capital Management“ und „Business Model Canvas“ und schreiben Sie maximal zehn Sätze.
  4. Diskussion: Woher kommt Ihrer Ansicht nach die Befürchtung, Facebook und Co. würden „die neuen Publisher“ und damit alteingesessene Unternehmen der Zeitungsbranche vom Markt verdrängen? Inwiefern ist diese Angst Ihrer Meinung nach berechtigt?

Hilfreiche Infografik zum Thema:

https://blog.contiago.de/fachverlag-4-0-chancen-und-risiken-auf-dem-weg-in-die-zukunft/

Supporte Digital Media Transformers & andere coole Digitalprojekte!

Wer mich & meine Arbeit unterstützen mag, darf sich die eigene SemRush-Version gerne über meinen Partnerlink besorgen. Dadurch qualifizierst du dich automatisch für eine Stunde 1:1 Coaching zu einem Thema deiner Wahl!
Um diese in Anspruch zu nehmen, sende mir nach der Registrierung über meinen Partnerlink doch bitte eine E-Mail an jeanmauriceport@gmail.com mit Angabe deines Namens und deiner zur Registrierung verwendeten E-Mail-Adresse (falls abweichend).

LÖSUNGEN FÜR DIE ÜBUNGEN:

Alexa Mobile Site Test ganzes Netzwerk OMS

moz-spam-score-for-www_saarbruecker-zeitung_de-2018-06-11_15_04_29_708416Z

OMS Netzwerk Backlink Count Übersicht

Page Authority mehr Seiten aus OMS Netzwerk

Page Authority Scans exemplarisch

Tote Links im Netzwerk

PERFORMANCE REPORTS:

Alles Profis Positionstracking
Kein Canonical von http auf https ticket regional
SOL Markups und AMP
SZ Digitalservice OnPage
SZ Digitalservice Positiontracking
SZ EInkaufwelt Positonstracking
Top Rankings ST

Vielen Dank nochmal an alle Teilnehmer des Seminars.
Beim nächsten Mal wird das Wetter besser – versprochen 😉