Performance-Tracking meets User Journey

Beim Thema Web Analytics hören wir immer wieder, wie kompliziert es doch sei, brauchbare Daten und Erkenntnisse zu sammeln, um die Performance einer Website device-übergreifend und über den Aufruf von URLs hinaus zu analysieren und damit die User Journey zu optimieren. Die Standardfunktionen von Google Analytics liefern dafür nicht die gewünschten Daten, so der Vorwurf. Das stimmt so allerdings nicht. Oftmals ist Connected Commerce eben doch einfacher als man denkt.

Google Analytics trackt vieles, aber bei weitem nicht alles

Viele Webseitenbetreiber greifen beim Webtracking ausschließlich auf die Standardimplementierung von Google Analytics als Werkzeug für ihre Auswertungen zurück. Dies kann in bestimmten Fällen auch völlig ausreichend sein, gibt Google Analytics doch Auskunft über eine ganze Reihe wichtiger Kennzahlen (KPIs), wie etwa die Anzahl der Nutzer, Sitzungen und Seitenaufrufe oder die Absprungrate in einem definierten Zeitraum. Darüber hinaus liefert das Tool neben demographischen Merkmalen eine ganze Reihe von Geräteinformationen, um beispielsweise die Unterseiten zu erkennen, auf denen besonders viele Benutzer von Mobilgeräten abspringen – so können Sie eventuelle Probleme bei der mobilen Nutzung Ihrer Seite aufdecken.

Doch wie gehen Sie vor, wenn Sie auswerten möchten, wie oft ein ganz bestimmter Button auf einer Seite angeklickt wurde? Oder von welcher Seite aus ein Nutzer mit Ihrem Support-Chat interagiert hat? Und wie sieht es mit der Scroll-Tiefe aus, den Datei-Downloads oder dem Aufruf externer Links? All diese Fragen kann Google Analytics nicht per se beantworten. Es gibt aber eine einfache und zugleich mächtige Lösung, die fest in Google Analytics integriert ist: das Event-Tracking, also das Erfassen von Ereignissen alle Art.

Bisher mussten diese Ereignisse bereits im Vorfeld genau geplant und in der Programmierung einer Webseite verankert werden, damit sie auch an Google Analytics zum Tracken gesendet wurden. Durch den Google Tag Manager ist das Einrichten von Events agiler und deutlich einfacher. Sie benötigen keine Programmierkenntnisse und können direkt loslegen sobald der Google Tag Manager in Ihrer Seite eingebunden ist. Für viele CMS- und Shop-Systeme gibt es bereits fertige Plugins, sodass Sie nicht einmal einen Entwickler für den Einbau benötigen.

Sie haben noch nichts vom Google Tag Manager gehört? Christoph Küpfer von ad agents beschreibt das Tool im Artikel „Der Google Tag Manager: Die eierlegende Wollmilchsau“ auf internetworld.de sehr treffend wie folgt: „Webanalytics ohne Tag Manager ist wie Wäsche waschen ohne Waschmaschine. Es geht – aber es ist Zeit- und Ressourcen-Verschwendung.“

Erfassen und Auswerten von Events mittels Google Tag Manager – drei Beispiele zeigen, wie es geht

1. Sie möchten wissen, wie oft ein Button/eine Grafik geklickt wurde?

Webseiten verfügen in der Regel über mehrere Formulare oder Teaser-Grafiken, die den Besucher zu einer Aktion auffordern. Wie oft Besucher tatsächlich mit diesen Call to Actions (CTAs) interagieren, können Sie leicht mit dem Google Tag Manager erfassen. Dazu richten Sie jeweils einen Trigger (das „WENN“) und ein Tag (das „DANN“) ein – WENN zum Beispiel ein Button mit der Aufschrift „Nachricht senden“ geklickt wird, DANN wird durch ein entsprechendes Tag ein Event an Google Analytics gesendet. Ein Event besteht immer aus vier Dimensionen, die Sie mit beliebigen Werten im Google Tag Manager befüllen können: die Eventkategorie, die Ereignisaktion, das Ereignislabel und den optionalen Ereigniswert.
Nehmen wir beispielsweise ein Kontaktformular: Zuerst legen Sie eine Eventkategorie fest. Diese kann den statischen Text „Kontaktformular“ enthalten. In der Ereignisaktion lautet die Aktion innerhalb dieser Kategorie „Abgesendet“, wenn das Formular abgeschickt wird. Als Ereignislabel erfassen wir bei unseren Implementierungen meist den aktuellen Seitenpfad. Für diesen gibt es eine eingebaute Funktion im Google Tag Manager, die Sie einsetzen können, indem Sie {{Page Path}} an der entsprechenden Stelle einfügen. Wenn Sie Ihr Kontaktformular auf mehreren Seiten oder in einer Seitenlasche eingebaut haben, können Sie auf diese Weise auswerten, von wo aus das Kontaktformular wie oft abgesendet wurde. Der Ereigniswert kann das Event noch gewichten. Für eine abgesendete Kontaktanfrage sollten Sie einen höheren Wert hinterlegen als bei einem angeklickten Teaser.

2. Absprungraten durch die Scroll-Tiefe relativieren

Ein Absprung ist nicht immer etwas Schlechtes. Besonders Blog-Betreiber kennen das Phänomen, dass Besucher eine Lösung für ihr Problem finden und anschließend ohne weitere Interaktion den Blog wieder verlassen. Die Verweildauer kann hier bereits einen ersten Anhaltspunkt darüber geben, ob der Besucher Ihren Text gelesen hat oder sofort wieder gegangen ist. Da jedoch immer mehr Menschen mehrere Seiten in Tabs öffnen, läuft die Verweildauer in mehreren Tabs parallel, auch in den inaktiven.
Abhilfe schafft eines der zahlreichen fertigen Scripts, die über den Google Tag Manager eingebunden werden können und die Scroll-Tiefe in 10- oder 25-Prozent-Schritten erfassen können. Entsprechende Events zeigen Ihnen später bei der Auswertung, wie viele Ihrer Besucher Ihren Text auf der jeweiligen Seite auch bis zum Ende gelesen beziehungsweise zumindest durchgescrollt haben.

3. Erfassen von Datei-Downloads und ausgehenden Links

Google Analytics ist eigentlich nicht zur Erfassung von ausgehenden Links oder zum Tracking von Datei-Downloads ausgelegt. Auch hier helfen die eingebauten Funktionen des Google Tag Managers, um Bedingungen an Link-Klicks zu prüfen.
Das Linkziel ist in der eingebauten Funktion {{Click URL}} enthalten und kann entsprechend geprüft werden. Enthält der Link eine bestimmte Dateiendung, zum Beispiel „.pdf?“, dann löst das ein Event aus, das die aktuelle Seite ({{Page Path}}) und das Linkziel ({{Click URL}}) erfasst. Dadurch können Sie später in Google Analytics auswerten, wie häufig welche Datei von welcher Seite aus heruntergeladen wurde. Bei ausgehenden Links prüfen Sie hingegen nur, ob die Ziel-Domain von der aktuellen Domain abweicht. Ist dies der Fall, dann handelt es sich um einen ausgehenden Link und Sie erfassen wieder die aktuelle Seite und die Zielseite in einem Event.

Fazit

Während die Standardfunktionen von Google Analytics eher einen Blick von oben auf Gruppen von Nutzern erlauben, können Sie durch das Event-Tracking mit dem Google Tag Manager detailliertere Einblicke erhalten. Sie können sogar bis auf Benutzerebene herunterbrechen, welche Events ein bestimmter Nutzer ausgelöst hat. Dies ist spätestens dann hilfreich, wenn Sie bezahlten Traffic aus Suchmaschinen oder sozialen Netzwerken erhalten. Durch die Events können Sie sehr genau feststellen, ob diese eingekauften Besucher die von Ihnen erhofften Aktionen auch wirklich durchführen und einen entsprechenden Return of Investment (ROI) für Sie generieren. Interessant ist das Thema umso mehr, wenn wir Web-Tracking in den übergeordneten Connected-Commerce-Zusammenhang stellen. Der Google Tag Manager ist zu unrecht nur auf etwa 14 Prozent der Websites eingebaut (laut einer Usage-Statistik des Internet-Service BuiltWith), obwohl er eine solide und vor allem einfache Basis bietet, die mit vielen wertvollen Funktionen dazu beiträgt, Ihre Kunden kennenzulernen und sie ins Zentrum zu stellen. Er hilft Ihnen dabei, eine nahtlose und nutzerzentrierte Customer Journey anzubieten.

Dieser Beitrag erschien zuerst bei Internet World Business.

Datenbasiertes Marketing: „Menschliche Intelligenz ist unverzichtbar“

Diana Degraa, Geschäftsführerin von Plan.Net Hamburg, spricht im Interview mit dem Blog „Frauen und Technik“ über ihre technische Erfahrung, über ihre Tipps für weibliche Talente und welche Rolle Big Data und Business Intelligence künftig spielen.

Live, liver, am livesten

Im letzten Jahr haben wir in unserem Blog bereits über Live-Streams informiert. Nun gibt es aber einige neue Mitspieler auf dem Markt und auch die Relevanz für Live-Streams ist deutlich gestiegen. Immer mehr Unternehmen und Influencer nutzen die verschiedenen Plattformen, um ihre Fans live am Geschehen teilhaben zu lassen.

Wo sich die Plattformen im letzten Jahr hinbewegt haben, erläutert Julia May in einem kurzen Update im Mediascale Blog.

Warum Voice Search nicht das Ende von SEO ist

Siri, Alexa, Cortana, Google Assistant und Co. liegen unbestritten im Trend: Seit dem Marktstart 2015 soll allein Amazon in den USA weit über acht Millionen Echos und Echo Dots verkauft haben, gerade ist nun Apple mit dem HomePod auf den Zug der smarten Lautsprecher aufgesprungen. Laut einer aktuellen Statista-Auswertung nutzen in Deutschland rund 17 Millionen den virtuellen Assistenten von Google, elf Millionen fragten Siri bei Apple und knapp sieben Millionen kommunizierten mit Microsofts Cortana. Ob auf dem Smartphone oder über einen smarten Lautsprecher, immer mehr Menschen suchen per Sprachsteuerung. Laut einer ComScore-Prognose soll schon in drei Jahren die Hälfte aller Suchen über Spracheingabe erfolgen. Mindestens 30 Prozent suchen dann sogar ohne eigenen Bildschirm. Anhand dieser Zahlen wird vielen Marketern flau im Magen. Wenn sich unser Suchverhalten durch die neuen Geräte ändert, was passiert dann mit SEO? Ist also schon wieder das Ende der Suchmaschinenoptimierung eingeläutet? Nein, immer noch nicht!

Keine Frage, Voice Search ändert unser Suchverhalten dramatisch, denn die gesprochenen Suchanfragen unterscheiden sich tiefgreifend vom schriftlichen Eintippen. Suchbegriffe und -phrasen werden über Sprachsteuerung länger, unspezifischer, beschreibender und nähern sich dem natürlichen Sprachgebrauch an. Damit werden sie aber auch komplexer und erschweren so das Verstehen der eigentlichen Absicht hinter der Suche, denn Keywords und ihre Attribute als Merkmale der Suche stehen nicht mehr an vorderster Stelle.

Müssen sich Agenturen und Werbetreibende deswegen graue Haare wachsen lassen? Nein, denn die Sprachsuche und das veränderte Eingabeverhalten sind eher Herausforderungen für die Suchsystemanbieter – also für Google, Apple, Amazon, Microsoft & Co., die im verschärften Wettbewerb stehen, sich auf das neue Nutzerverhalten einzustellen. Verstehen Alexa, Siri & Co. bestimmte Fragen nicht, liegt es an den Anbietern von Suchsystemen und Suchassistenten, die Lösung hierfür zu erbringen. Diese Herausforderung ist für die dominanten Konzerne jedoch nicht neu. Ihre Algorithmen können mittlerweile immer besser die Absicht hinter einer Suche erkennen und die passenden Ergebnisse liefern. So hat sich Google beispielsweise schon vor fünf Jahren für den Trend gewappnet: mit seiner „Semantischen Suche“ und seit 2015 mit dem auf künstlicher Intelligenz basierendem System Rank Brain. Kleine Ausnahme: Fragen Sie Siri mal nach SEO. Da kommt auch beim vierten Mal kein richtiger Treffer.

Für die Suchmaschinenoptimierung finde ich eines viel interessanter als die Fragen, die über Voice Search gestellt werden: die Antworten, die daraus resultieren. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Wollen Sie ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Wollen Sie nur in Ruhe stöbern oder benötigen Sie die Hilfe eines Verkäufers? Reicht Ihnen eine kurze Antwort oder wollen Sie ihre Anfrage mehrfach nachspezifizieren, bis Sie zum passenden Ergebnis kommen?

Die Herausforderung für die SEO-Experten liegt künftig also in diesen Konversationen zwischen den Suchenden und den Sprachassistenten. Denn eindeutige und direkte Antworten sind nur für einen kleinen Teil von Suchanfragen umsetzbar, zum Beispiel für die Wettervorhersage fürs Wochenende, die Öffnungszeiten des Arztes, die Einwohnerzahl von Madagaskar oder den Staureport. Schon heute liefern die Quellen für Googles „Featured Snippet“ Antworten auf solche Fragen. Das Ableiten, Aufbereiten und Beantworten solcher Fragen bedarf aber bei der sprachgesteuerten Suche keiner generellen Neuausrichtung. Künftig werden besonders lokale Suchanfragen über Voice Search eine prominente Rolle spielen. Schon heute ist die Auszeichnung geolokaler Informationen auf der Website SEO-Grundlagenarbeit (Stichwort: Semantic Markups). Noch wichtiger wird aber die Integration von lokalen Daten für Geschäfte, Hotels oder Restaurants in bestehende, auf solche Anfragen spezialisierte Suchmaschinen, wie z.B. YELP oder KAYAK. Beide Anbieter haben bereits Skills auf Amazon Echo und dienen auch Suchassistenten wie Siri und Cortana als Referenz.

Schwieriger wird es bei offen gestellten Fragen und Aussagen, in denen der Fragende nach einer Beratung sucht. Diese Fragen sind ähnlich denen, die wir auch im Geschäft äußern würden: zum Beispiel „Ich möchte einen Fernseher kaufen“ oder „Ich suche ein Kleid“. Denn auf diese Frage kann nicht einfach mit einer Antwort gekontert werden. Es muss also eine Gegenfrage gestellt werden – zum Beispiel: „Zu welchem Anlass möchtest du das Kleid tragen?“.

Gutes SEO bedeutet schon heute auf die Suchintention zu optimieren. In Zeiten von Voice Search wird es noch wichtiger für Webseitenbetreiber und Suchexperten, die Suchintentionen ihrer Zielgruppen zu verstehen und zu bedienen. Nur so können sie Mehrwert vermitteln und ihr Informationsangebot passgenau auf die Nachfrage ihrer potentiellen Kunden abstimmen. Die sprachgesteuerte Suche wird SEO also nicht zu Grabe tragen, aber sie bringt uns dazu, den Blick noch stärker als bisher über den Google-Tellerrand hinaus zu lenken. In Zukunft muss sich SEO auch darum kümmern, Informationen im Kontext von Inhalten zu definieren und diese automatisiert zu übergeben.

„Digital ist immer dynamisch und agil.“

Nicht nur die Unternehmen, auch die Agenturen stecken knietief in der digitalen Transformation. Adzine besuchte das Haus der Kommunikation Hamburg und sprach mit der Plan.Net Hamburg Agenturchefin Diana Degraa über die gegenwärtigen Herausforderungen einer Digitalagentur.

Warum wir Online bessere Werbeformen brauchen

Ein Skyscraper hier, ein Billboard da und dazwischen immer mal wieder eine Layer Ad: Auf einer Online-Seite, die – sagen wir mal – die Bedürfnisse der Nutzer nicht zu 100 Prozent in den Vordergrund stellt, kann man sich schnell mal wie auf einer Seitenstraßen des Times Square fühlen. Überall blinkt und leuchtet es. Verständlich, wenn sich Nutzer davon entnervt abwenden. Natürlich gibt es auch überall sonst Werbung, in manch einer Zeitschrift vermutlich sogar mehr als auf einer Online-News-Seite. Doch die Aufteilung zwischen Content und Ads wirkt dort meist aufgeräumter und weniger aufdringlich. Klar, ein Magazin bietet komplett andere Design-Voraussetzungen als eine Website – aber es muss doch trotzdem möglich sein, gewisse Ansprüche an Werbemittel auch in der digitalen Welt zu erfüllen. Vermarkter versprechen qualitativ hochwertige Werbeplätze, Nutzer wollen es, doch die Wirklichkeit erinnert in manchen Fällen immer noch an einen überladenen Rummelplatz.

Es ist höchste Zeit für einen digitalen Frühjahrs- bzw. Sommerputz. Und das betrifft uns alle: Vermarkter, Werbetreibende, Kreativ- und Mediaagenturen. Wollen wir uns nicht langsam endgültig davon verabschieden, dass Werbung immer ein Fremdkörper in der Gestaltung ist? Ein optimales Nutzererlebnis sollte auch Online oberste Prämisse haben. Inflationär eingesetzte Pop-ups bewirken jedoch genau das Gegenteil. Ebenso die klassischen Rectangle-Formate, die weder optisch noch inhaltlich an den redaktionellen Content angepasst sind.

Im Online-Zeitalter dreht sich alles um Relevanz, das sollte sich neben dem Inhalt auch auf die Ästhetik der Werbung auswirken. Regel Nummer eins lautet hier: Seid höflich. Wenn ich Konsumenten von meinem Angebot überzeugen möchte, sollte ich sie nicht permanent beim Lesen stören. Es muss uns gelingen, Aufmerksamkeit zu wecken, ohne dabei penetrant zu sein. Gleichzeitig müssen wir den Spagat schaffen, und das ist Regel Nummer zwei, Online so großflächig wie möglich zu werben. Auf 200 mal 300 Pixeln können Kreative nur selten ihr Können zeigen. In der Desktop-Anwendung stechen da aktuell Sticky Dynamics positiv hervor. Großflächige Ads, die sich beim Scrollen mitbewegen und im Optimalfall mit Bewegtbild-Elementen angereichert sind – ohne dabei die redaktionellen Inhalte zu unterbrechen.

Wenn ich großflächig werben und dabei nicht nerven möchte, ist es umso wichtiger, Zielgruppe, Werbung und redaktionellen Content aufeinander abzustimmen. In Printmedien können Werber ihre Anzeige auf den Redaktionsplan anpassen. Online-Artikel entstehen zwar weitaus kurzfristiger, doch in Zeiten von Big Data gilt auch hier: Context ist King! Höflich zu werben heißt, dem der Zielgruppe in der Nutzungssituation ein Angebot zu machen: „Du liest einen Artikel über‘s Bergsteigen – wenn du für die Saison noch Outdoor-Equipment brauchst, bist du hier richtig.“ Im Optimalfall nutzen Werbetreibende ein Multitab-Werbemittel, damit User das Angebot durchstöbern können, ohne die aktuelle Website verlassen zu müssen. Theoretisch könnte sogar eine komplette Customer Journey inklusive Kaufabwicklung innerhalb eines Multitab-Werbemittels stattfinden.

Auf den mobilen Endgeräten wirken alle Content-Streaming-Formate weitestgehend gut. Inhalte und Werbung sind klar voneinander abgegrenzt und User können die Ads einfach wegscrollen. Generell kann man sagen: Jede Werbung, die man nicht wegklicken muss, ist ein Schritt in die richtige Richtung. Denn die Klicks vieler Layer Ads kommen doch hauptsächlich zustande, weil einige User das X nicht treffen, um die Werbung zu schließen.

Darüber hinaus bietet das Smartphone natürlich aber per se schon ganz andere technische Funktionalitäten, als die Desktopvariante. So sorgen Interactive Move-Formate wie beispielsweise Shake Ads, 3-D-Ads und Panorama Ads  durch das Bewegen des Smartphones für spielerische Interaktion und ein vollkommen anderes, überraschendes Markenerlebnis beim Nutzer.

Also, liebe Branche, packen wir es an! Wir brauchen Online dringend einen Qualitätsschub der Werbeformate, denn der jetzige Standard grenzt manchmal leider noch immer an Wegelagerei. Die gute Nachricht: Dieser Umstand scheint inzwischen aber auch teilweise erkannt zu sein. So bildet beispielsweise die „Goodvertising-Inititiative“ von BURDA Forward eine positive Speerspitze für mehr nutzerfreundliche Werbung. Als plakativen Beweis für die Umsetzung der Strategie ist die Umstellung beim Layout von Focus Online hervorzuheben. Das ursprünglich dreispaltige Grundraster der Webseite wich einer wesentlich ansprechenderen Zweispaltigkeit.

Großartige redaktionelle Inhalte verdienen innovative, hochwertige und vor allem nutzerfreundliche Werbemittel. Die lassen sich nebenbei gesprochen wahrscheinlich auch teurer vermarkten als eine Rummelplatz-Resterampe. Schaffen wir das nicht, kennen wir die Alternative: genervte User, die Adblocker installieren.

Dieser Beitrag erschien zuerst bei W&V.

Der Relaunch von Twitter – kein Design-Gewitter

Ein Design-Update von Twitter und ein Raunen geht durch die iOS Familie… Denn dieser Fresh-up betrifft in erster Linie die Apple Device Nutzer. Diese sind bei Twitter nämlich nicht die Speerspitze der Zielgruppe für eine verbesserte Usability, sondern die Nachzügler. Android Nutzer haben diese optischen Anpassungen größtenteils bereits hinter sich.

Die Überarbeitung ist nicht dem Anspruch geschuldet, den Kanal aus Imagegründen heraus getrieben zu verschönern oder einzigartiger wirken zu lassen, sondern eine Vereinfachung bei der Bedienbarkeit zu gewährleisten. Insbesondere für Neulinge.

Wenn Labortests zeigen, dass sich das Klientel schwer tut mit Ikonographie, Menüführung und Zuordnung der Botschaften innerhalb einer Anwendung, sollte man schleunigst optimierend eingreifen. Im Übrigen ein absolut üblicher Vorgang im Tagesgeschäft der Digitalagenturen. Auch hier werden (je nach Kunde) permanent Testings durchgeführt um den User so einfach wie möglich abzuholen.

Dass Twitter mit dem Vorwurf konfrontiert wird, sich visuell zu stark bei Google Plus inspiriert haben zu lassen, weil jetzt alles viel runder sei, ist ziemlich absurd.
Auch Google Plus ist nicht der Erfinder des runden Profilfotos. Und wenn es bei Twitter immer wieder zu Verständnisproblemen kam, weil User nicht zwischen den rechteckigen Bildern in Tweets und den ebenfalls rechteckigen Profilbildern unterscheiden konnten, ist eine Umstellung nur konsequent.

Bei den Design-Neuerungen auf Twitter handelt es sich um optische Eingriffe, betreffend Navigation und Funktionalitäten. Es geht um den Einsatz gelernter Ikonografie, welche sich im Verständnis der User verankert hat.

Wir nutzen nun mal auch kein anderes Symbol als das gelernte Briefkuvert, wenn es darum geht die Bedeutung einer bestimmten Art von Kommunikationsaustausch bildlich zu beschreiben.

Daher ist es auch hier konsequent, wenn Twitter sich endlich von seinem (Antwort-) Pfeil verabschiedet zum Wohle einer viel leichter verständlichen Sprechblase.
Auch der Einsatz eines leichteren Schriftbilds gepaart mit plakativeren Headlines unterstützt in erster Linie die Grundsätze der klassischen Typografielehre.

Dass einer Vielzahl der aktuellen Twitter-Nutzer die Änderungen nicht weit genug reichen, weil die Vermeidung von Fake-Accounts und der Kampf gegen Hasspostings davon nicht betroffen sind, kann ich gut nachvollziehen. Diese Themen betreffen aber auch eher moralische Werte denn ästhetische.

Dieser Beitrag erschien zuerst bei Internet World Business.

Connected Retail – Customer Centricity meets Store

Wenn Großinvestor Warren Buffet nicht mehr an den stationären Handel glaubt, dann ist das schon ein Paukenschlag. So darf man es auf jeden Fall deuten, wenn dessen Holdinggesellschaft „Berkshire Hathaway“, Wallmart Aktien im Wert von 900 Millionen US-Dollar verkauft und stattdessen lieber in Airlines investiert. Das Branchenportal Business Insider fragt sogar, ob es sich hierbei um den „Todesstoß für eine ganze Branche“ handelt.

PCs, Laptops, Smartphones, Tablets, Wearables – die Möglichkeiten um einzukaufen, sich beraten zu lassen oder einfach nur um zu stöbern sind grenzenlos. Ausgefeilte Produktdarstellungen und -beschreibungen, Chatbots sowie Live-Chats ersetzen mehr und mehr die Verkäufer im stationären Handel. Zunehmend kostenlose und immer schnellere Lieferungen sparen Zeit und schonen Nerven. Zusätzlich hilft Big Data dabei, den Online-Shop zu personalisieren und Waren schneller zu finden oder gar den richtigen Vorschlag für etwas zu bekommen, von dem man gar nicht wusste, dass man es sucht. 1:0 für den Online-Shop, könnte man meinen.

Seit einiger Zeit ist aber auch ein Gegentrend zu beobachten: Der Einkauf im stationären Shop hat für den Kunden wieder eine gewisse Wertigkeit erlangt. Das gilt aber selbstverständlich nur, wenn er sich davon einen Mehrwert verspricht. Für Konsumenten geht es längst nicht mehr um ein „Entweder Oder“. Sie wollen beides – sowohl Online-Shopping als auch Einkaufen im stationären Handel – und das am besten auf intelligente Weise miteinander verknüpft. Das bringt den stationären Handel wieder zurück ins Spiel.

Dabei ist die berühmte „Seamless Customer Journey“, also das nahtlose Einkaufen, aber noch längst nicht erreicht, wenn im Store Verkäufer mit Tablets ausgestattet sind bzw. digitale Beratungsterminals aufgestellt werden, um die Verlängerung in den Online-Shop zu gewährleisten. Möglichkeiten wie Beacon-Installationen im Shop, Tracking der mobilen Devices oder Voice Services wie Amazons Alexa ermöglichen es den Endkunden da abzuholen, wo er zuletzt seine Reise begonnen, pausiert oder beendet hat – nämlich online.

Durch die intelligente Auswertung von Daten können Händler darüber hinaus auch endlich einen weiteren entscheidenden Nachteil beheben: Bisher wusste ein Einzelhändler nicht sonderlich viel über seinen Kunden, abgesehen von den besonders guten vielleicht. Weder wusste er, für was er sich vor, nach oder während des Filialbesuchs interessiert hat, noch ob er parallel zum Besuch im Store Preise bei Konkurrenten verglichen hat. Durch das ganzheitliche Sammeln und Erfassen von Verhaltensmustern, Vorlieben und Bedürfnissen der Kunden im Store und im Online-Shop können diese Informationen sinnvoll zu einem persönlichen Profil zusammengefasst und an den Kunden in Form von echten Mehrwerten zurückgegeben werden.

Die Voraussetzung dafür ist, dass die richtigen Fragen gestellt werden. Dem Multimedia-Store nützt die Information zur Haarfarbe weniger als der Musikgeschmack des Kunden. Nicht alle Daten sind relevant – umso wichtiger ist die richtige Datenstrategie. So haben nicht nur Shop-Betreiber die Möglichkeit sich dem Besucher anzupassen, sondern auch der stationäre Möbelhändler, der Hifi-Shop oder der Supermarkt am Ende der Straße.

Gesammelte Daten können bereits heute in Echtzeit ausgelesen und in eine Interaktion im POS umgewandelt werden. Allzu oft mangelt es aber an einer intelligenten Datenstrategie und scheitert an veralteten Strukturen, die nun aufgebrochen werden müssen. Wenn man dann außerdem bedenkt, dass künftig das Einkaufserlebnis am Point of Sale sowie die Effizienz einer perfekten Beratung dank Virtual und Augmented Reality auf ein ganz neues Level gehoben werden kann, sollte man den stationären Handel auf keinen Fall zu früh abschreiben.
Die digitale Transformation eröffnet zukunftsorientierten Retailern die Möglichkeit aufzuholen und zu 1:1 auszugleichen. Sie müssen die Chance nur ergreifen.

Warum bringen wir also nicht endlich das Beste von Online und Offline im Sinne des Endkunden zusammen? Wenn der Kunde wirklich im Fokus stehen soll, muss das eigene Kanaldenken durchbrochen und Neues gewagt werden. Doch das gelingt nur, wenn man das Verhalten der Konsumenten genau kennt und einen Plan hat, wohin die Reise gehen soll. Der POS steht unter Zugzwang – wer sich nicht den Bedürfnissen der Kunden anpasst, wie es jeder Online-Händler tut, hat in Zukunft keine Chance.

Dieser Artikel wurde auf internetworld.de veröffentlicht.

Digitale Transformation: Bye Bye Buzzword-Bingo!

Wollen Sie auch den Transformationsprozess in Ihrem Unternehmen beschleunigen, indem Sie den Change fast forward mittels Disruption und Out of the Box Thinking als Ultimate Goal für 2017 ausrufen? Oder vielleicht durch Programmatic Advertising unterstützt mit First, Second und Third Party Data mit Marketing Automation und Immersive Marketing den End-to-End Process zur Customer Centricity beschreiten? Und sind Sie nicht auch davon überzeugt, dass Virtual Reality und Live Content the next big things sind?

Ja, natürlich, ich übertreibe. Ganz so schlimm ist es glücklicherweise nicht. Doch wer mit digitalen Themen zu tun hat, kommt an englischen Fachbegriffen schwer vorbei. Und das ist auch gar nicht verwerflich. Zum Problem wird es nur dann, wenn wir kein gemeinsames Verständnis dieser Begriffe gewährleisten können – wenn alle zwar irgendetwas darunter verstehen, aber jeder etwas anderes. Und ab und zu wird man das Gefühl nicht los, dass manche sich auch gerne hinter Technologie, Kürzeln und abstrakten Fachbegriffen verstecken, um die eigene Unwissenheit im Detail zu überspielen.

Was soll sich durch die Digitalisierung verändern?

Nehmen Sie einen Begriff wie „Digitale Transformation“. Finden Sie als Unternehmer nicht auch, dass digitale Transformation wichtig ist? Natürlich, klar. Und jetzt fragen Sie am besten mal Ihre Mitarbeiter und Kollegen, was die darunter verstehen: Die Antworten werden Sie überraschen. Vom Kantinenplan als App bis hin zu crowdbasierter Produktentwicklung könnte da so ziemlich alles dabei sein. Wenn es hier kein gemeinsames Verständnis gibt, wird es schwer bis unmöglich, dass alle an einem Strang ziehen. Wie denn auch, wenn niemand weiß, was sich genau verändern soll durch diese digitale Transformation? Darüber hinaus hat eine aktuelle Studie ermittelt, dass nur knapp ein Drittel der hiesigen Firmen sich gut oder sehr gut auf die digitale Revolution vorbereitet fühlt. Wer hier Buzzword-Bingo spielt, riskiert, dass dieser Prozess im Unternehmen tendenziell eher scheitert. Nicht weil Mitarbeiter und Dienstleister grundsätzlich unwillig wären, aber das Ankündigen von Veränderungen geht in etablierten Firmenstrukturen in der Regel mit Unsicherheit, Angst und dem Gefühl einer fehlenden Kompetenz einher. Eine abstrakte, schwer verständliche Sprache, die hohe Komplexität vermittelt, kann bei den Mitarbeitern da zusätzliche Reaktanz hervorrufen. Dabei sind diese die wichtigsten Unterstützer – im Buzzword-Deutsch „Die Enabler“. Die oberste Maxime für Entscheider muss deshalb lauten: Machen Sie die Dinge verständlich und schaffen Sie ein allgemeines Verständnis dafür, was Sie unter bestimmten Begriffen verstehen.

Buzzwords müssen für alle Beteiligten greifbar werden

Ein weiteres Beispiel? Sie treffen im Unternehmen die grundsätzliche Entscheidung, dass „Customer Centricity“ ein Teil Ihrer Zukunftsstrategie ist. Sie wollen also künftig „den Kunden in den Mittelpunkt stellen“. Das ist möglicherweise gerade deshalb so wichtig, weil Ihr Unternehmen über eine Vielzahl an Kundendaten verfügt, die es an unterschiedlichsten Berührungspunkten mit dem Unternehmen und seinen Produkten („Touch Points“) sammelt. Sie verfügen bereits über verschiedene Datenbanken, in denen das Wissen über die Kunden liegt, die aber – historisch gewachsen – selten untereinander kompatibel sind und nicht so einfach zusammengeführt („gematcht“) werden können. Wenn nun alle involvierten Abteilungen, wie etwa die IT-, Marketing- und Sales-Abteilung, getrennt voneinander Customer Centricity definieren, werden Sie ganz unterschiedliche Ansätze mit verschiedensten Anforderungen erhalten. Sie könnten dann natürlich, weil Ihnen ein Strategieberater Einsparungen im zweistelligen Bereich versprochen hat, eine Softwarelösung als All-in-One-Lösung einkaufen. Sinnvoller wäre es aber, alle beteiligten Abteilungen im wechselseitigen Austausch – vielleicht sogar moderiert von einem externen, software-unabhängigen Berater – mal definieren zu lassen, wie das Ziel der absoluten Kundenorientierung denn in einzelnen Schritten konkret erreicht werden soll. Mit welchen Inhalten, an welchen Kontaktpunkten, in welcher Frequenz und vieles mehr. Und erst dann treffen Sie nachgelagerte Entscheidungen zu Strukturen, Verantwortlichkeiten, Budgets und vielleicht auch Software.

Am besten gelingt ein gemeinsames Verständnis unserer Erfahrung nach, wenn Dinge für alle Beteiligten greifbar werden – und das ist durchaus auch im wörtlichen Sinne zu verstehen. Nehmen Sie sich zum Beispiel Zeit für einen Workshop, in dem Sie neue Technologien testen und selbst ausprobieren können. Sprechen Sie mit Start-ups der eigenen Branche, lernen Sie diese von innen kennen oder greifen Sie auch gerne das Wissen branchenfremder Experten ab, wie diese in ihrem Unternehmen bestimmte Aspekte der digitalen Transformation gemeistert haben. Und keine Angst: Dafür muss man nicht gleich eine Reise ins Silicon Valley buchen. In einer deutschen Metropole Ihrer Wahl können Sie diese Erkenntnisse ebenso sammeln. Nach einem solchen Workshop wird vermutlich nicht die Transformationsstrategie Ihres Unternehmens stehen. Aber im besten Fall haben Sie gemeinsam die wichtigsten Handlungsfelder für eine solche Strategie identifiziert und sich ein gemeinsames Vokabular angeeignet.

Ebenso wichtig ist das gemeinsame Begriffsverständnis darüber hinaus in der Zusammenarbeit mit Ihren Dienstleistern. Trauen Sie sich nachzufragen, was mit einem bestimmten Begriff gemeint ist und was dahintersteckt, frei nach dem Motto „Es gibt keine dummen Fragen“. Wenn Sie dazu auch Ihre Dienstleister ermutigen, vereinfachen und beschleunigen Sie den gegenseitigen Wissensaustausch immens, ermöglichen sich selbst und Ihrem Gegenüber eine optimale Lernkurve und schaffen damit eine gute Basis für eine effiziente Kommunikation und kollaborative Zusammenarbeit.

Wenn man das einmal erreicht hat, wird ein Unternehmen um ein Vielfaches schneller in der konkreten Umsetzung. Und auch Buzzwords sind in diesem Prozess dann kein Problem mehr. Schließlich verstehen nun alle das Gleiche darunter.

Dieser Artikel wurde auf capital.de veröffentlicht.

Intelligente und markenindividuelle Verknüpfung von TV und Online: Boost your Mediaplan!

Auch heute noch werden TV und Online viel zu oft unabhängig voneinander geplant und umgesetzt. Die dafür verantwortlichen Agenturen sehen sich oft nur bei Jahresstrategiepräsentationen, dazwischen herrscht Funkstille. Dass so keine erfolgreichen crossmedialen Kampagnen entstehen können, liegt nahe. Durch die fehlende Abstimmung werden Effizienzpotentiale verschenkt – und das ist nicht nur „nicht im Sinne des Kunden“. Das ist fast schon fahrlässig.

Ohne eine enge Zusammenarbeit aller Kompetenzbereiche, die den Kunden ganzheitliche Lösungen bietet, ist eine Agentur nicht zukunftsfähig. Neben der Optimierung der einzelnen Kanäle steht dabei immer die Steigerung der Gesamtkampagneneffizienz im Fokus, stehen wir doch vor großen Herausforderungen: Mediabudgets stagnieren, gleichzeitig kommt zu einer Angebotsfragmentierung; beispielsweise nahm die Anzahl an in HH empfangbaren TV-Sender in den letzten Jahren um fast 70 Prozent zu. Die Anzahl an de.-Domains hat sich in den vergangenen fünf Jahren fast verdoppelt und die der verfügbaren Apps sich um den Faktor 5.000 vervielfältigt. Sogar die Anzahl an Neuerscheinungen im Printbereich übersteigt bei weitem die der Einstellungen, so das scientific institute for research press. Die Herausforderung: Die Zahl der genutzten Angebote pro Nutzer bleibt hingegen gleich (Beispiel TV: 80 Prozent der Nutzung fallen auf sieben Sender; Beispiel Apps: 80 Prozent der Nutzung fallen auf fünf Apps). Die Konsequenz aus dieser Entwicklung sind stetig sinkende Reichweiten.

TV wirkt

Wenn Reichweiten sinken und Budgets stagnieren, wird die Mediaeffizienz immer wichtiger. Im Mittelpunkt einer Effizienzstrategie steht unserer Meinung nach noch immer TV, das nicht nur den höchsten absoluten (Media-)Beitrag zum Kampagnen-ROI aufweist. TV ist auch ein wichtiger Treiber für SEO/SEA (+20 Prozent ROI) und Anschubkanal für Social Media. Unterstützt wird dieser Effekt durch eine Veränderung im Mediennutzungsverhalten: Heute schon nutzt jeder Fünfte in der Altersgruppe der 14- bis 29-Jährigen täglich TV und Internet parallel. Vor zwei Jahren war das nur jeder Viertel, so sagen es die ARD/ZDF-Onlinestudien 2013-2015. Die Intensität der Parallelnutzung nimmt also zu. Auch in der Altersgruppe der 18- bis 59-Jährigen hat jeder Dritte in den letzten zwei Tagen TV und Internet mindestens einmal parallel genutzt.

„Boost your TV Plan“

Parallelnutzung kann als Planungsparameter die klassische TV-Planung erweitern: TV und Online werden hierbei integriert und nicht (nur) auf Reichweite, sondern auch auf Wirkung geplant sowie optimiert. Denn ein hoher Parallelnutzungsanteil führt zu geringeren Cost-pro-Visits, kurz CpV, (-37 Prozent) und höheren Visits-pro-GRP, kurz VpGRP, (+32 Prozent), wie wir in einer großen Studie gemeinsam mit SevenOneMedia und den Kunden Deichmann, Saturn, MINI, bonprix und Carglass aufzeigen konnten.

Neben der Planung auf Parallelnutzer kann auch eine laufende Kampagne auf Visits und Conversions optimiert werden. Dazu bedarf es einem intelligenten Attributionsverfahren zur Bestimmung der individuellen Wirkung eines TV-Spots (Visits, Conversions), wobei sich markenindividuell natürlich deutliche Unterschiede zeigen. Bei einer Optimierung auf Einzelumfeld-Ebene sind Einsparpotentiale von 80 Prozent und mehr möglich. So konnte der CpV in einer Kampagne über einen Zeitraum von zwölf Wochen hinweg um 84 Prozent gesenkt werden. Das ist deshalb möglich, weil sich zeigt, dass die vermeintlich homogene TV-Zielgruppe gar nicht so homogen in ihrer Reaktion auf den TV-Spot ist. Abhängig von Uhrzeit und Wochentag finden sich auf den Sendern Zuseher, die unterschiedlich darauf reagieren. Auch im Spot dargestellte Produkte erzielen je nach Sender andere Reaktionen. Dennoch lassen sich natürlich auch zielgruppenübergreifend Erkenntnisse ableiten: Die Reaktionsquote (VpGRP) ist auf Spartensendern, da näher an der Zielgruppe, höher – nämlich um über 30 Prozent. Auch sind Eckpositionen im Werbeblock besonders effizient (CpV). TV-Spots mit explizitem Call-2-Action-Element wirken bei gleichem Mediaplan und gleicher Leistung ebenso deutlich besser (bis zu +152 Prozent).

Außerdem: „Little-Big-Data-Analytics“

Mit Standardmarktforschung sind einige Fragen rund um TV Kampagnen nur schwer bzw. überhaupt nicht zu beantworten. Hier zeigt sich eine weitere Stärke des Ansatzes: Über diese Little-Big-Data-TV-Analysen lassen sich Antworten finden auf Fragen wie: Konnten durch die Verjüngung der TV-Zielgruppe auch jüngere User dazu gebracht werden, den Webshop zu nutzen? Haben TV Spots eine Halbwertszeit? Wie viele TV Spots sollen/können parallel laufen, ohne dass sie sich kannibalisieren?

„Boost your Crossmedia Plan“

Wer heute noch immer eine TV-Kampagne isoliert plant, plant an der Mediennutzungsrealität vorbei. Zeitlich synchrone Mehrfachkontakte in TV und Online bringen nicht nur den extra Push, um den TV-Zuseher doch noch auf die Webseite zu bringen: Display-Kampagnen, die mit dem TV-Spot synchronisiert werden, werden häufiger geklickt (+29 Prozent) und produzieren damit günstigere Visits (-22 Prozent) als die nicht synchronisierten Kontrollgruppen (gleiches Mediabudget, gleiche Platzierungen). Darüber hinaus wirken sich zeitlich synchrone Mehrfachkontakten auch positiv auf Marken-KPIs aus: In einer Onlinebefragung (Kontroll-Testgruppen-Design) wurde gezeigt, dass durch die zeitliche Synchronisierung (gleiches Mediabudget, gleiche Platzierungen) die gestützte Markenbekanntheit um 19 Prozent gesteigert werden konnte, auch die Werbeerinnerung nahm um 12 Prozent zu.

Kontaktklassenoptimierung und Multiplyingeffekte

Kernstück unseres Ansatzes ist dabei die crossmediale Erweiterung des Targetingsystems unserer Schwesteragentur mediascale. Darin wird eine prognostizierte TV-Kontaktwahrscheinscheinlichkeit als Targetingkriterium verwendet. Um Multiplyingeffekten zu realisieren, wird allen Profilen, die eine hohe TV-Kontaktwahrscheinlichkeit besitzen, auch ein Online-Werbemittel zugespielt. Neben dieser Kontaktklassenoptimierung ist aber noch ein zweites strategisches Einsatzszenario möglich: Nettoreichweitenoptimierung. Hierbei wird eine Online-Bewegtbild-Kampagne an alle Profile ausgespielt, die nur eine sehr geringe Kontaktwahrscheinlichkeit mit der TV-Kampagne aufweisen. So kann bei gleichem Gesamtbudget die Gesamtnettoreichweite gesteigert werden (+7 Prozent) und der CpGRP sinkt (-10 Prozent). Wichtig ist, dass es sich hierbei um einen offenen Ansatz handelt, das heißt auch Kontaktwahrscheinlichkeiten mit Print oder Radio stehen als Targetingkriterium zur Verfügung.

Von Reichweite zu Wirkung

VpGRP und CpV – vorbei die Zeiten, in denen TV-Kampagnen nur auf GRPs geplant wurden. Immer öfter ist die unmittelbare Wirkung der Kampagne in Form von Visits und Conversions wichtig. Das kommt einem Paradigmenwechsel in der Mediaplanung gleich. Dafür sind neue Methoden und Tools erforderlich. Über diese neuen Methoden der Messung und Optimierung von TV erschließen sich attraktive Effizienzsteigerungspotentiale. Die Herausforderung besteht darin, TV und Online intelligent zu orchestrieren. Die Mediaagenturen, die sich diesem Anspruch stellen, können für ihre Kunden attraktive Effizienzpotentiale realisieren. Allerdings ist die Entscheidung hier mehr oder weniger schon gefallen: Die Agentur, die jetzt noch nicht auf den Zug aufgesprungen ist, hat ihn verpasst.

Dieser Artikel wurde auf www.absatzwirtschaft.de veröffentlicht.