Sechs Maßnahmen gegen Adfraud

Der Veränderungsprozess im digitalen Werbemarkt konfrontiert die Branche permanent mit neuen Werbeformen, neuen Technologien und daraus resultierend auch wechselnden Herausforderungen. Zu letzteren zählen auch betrügerische Maßnahmen, sprich Adfraud. Der systematische Kampf gegen Adfraud erfordert erweiterte Ansätze und mehr Kooperation von allen Marktteilnehmern. Mit den folgenden sechs Maßnahmen kann AdFraud wirksam bekämpft werden.

 1. Verantwortung wahrnehmen

Vermarkter nehmen ihre Verantwortung für die Leistungserbringung verstärkt wahr. Dazu zählen Sicherstellung der auftragsgemäßen Abwicklung und des transparenten Leistungsnachweises von Schaltungen. Parallel dazu nehmen Agenturen stellvertretend für ihre Kunden die Kontrollfunktion auf der Nachfrageseite ein und fordern die für die Sicherstellung und Überprüfung der Kampagnenqualität notwendigen Evaluationen und Informationen beim Vermarkter ein.

2. Steuerung

Werbeauslieferung darf ausschließlich auf den gebuchten Inventaren erfolgen – das muss ausnahmslos gewährleistet werden. Zur Unterstützung stehen u.a. Steuerung anhand von White- und Black-Lists zur Verfügung; für Kontrollen Domain-Reporting, welches Vermarkter und Agenturen über Adserver und Ad-Verification-Systeme umsetzen. Auch hier gilt: Abweichungen sind konsequent zu identifizieren und im Austausch der Marktpartner zu eliminieren.

3. Monitoring und Dokumentation

Vermarkter und Agenturen erfassen, sowohl die Qualität von Targeting-Daten als auch der damit ausgelieferten Kampagnen in nachvollziehbarer Form. Der Vermarkter setzt geeignete Monitoring-Instrumente ein, zum Beispiel über Panels, Adserver-interne Systeme oder das Campaign-Monitoring der Targeting-Dienstleister. Hier gilt es, volle Transparenz in Richtung der Auftraggeber zu gewährleisten. Auch Agenturen setzen zur doppelten Qualitätssicherung vergleichbare Systeme auf ihrer Seite ein.

4. Umfassende Absicherung

Agenturen und Marken sichern sich gegen maschinellen Fraud, betrügerische Werbemitteleinbindung sowie Click- und Conversion-Betrug ab. Dazu nutzen Vermarkter und Agentur oder Advertiser gemeinsam Pre- und Post-Bid-Kontrollen. DSP-interne Systeme und externe Fraud-Detection-Systeme unterstützen die Pre-Bid-Kontrolle. Bei der Post-Bid-Kontrolle kommen Reportings und Logfile-Analysen zum Einsatz.

5. Sanktionierung

Identifizierte Vergehen sind konsequent juristisch zu verfolgen. Diese Ahndung sollte idealerweise auch grenzüberschreitend erfolgen. Handelt es sich um Dienstleister, die etwa einen Code of Conduct des BVDW unterzeichnet haben, sind ergänzenden Maßnahmen einzusetzen: Ein fest definierter Beschwerdebeirat hat verschiedene Sanktionierungsoptionen, die bis zur öffentlichen Abmahnung und zum Ausschluss aus dem Unterzeichnerkreis reichen.

6. Standardisierung

Wo es Standards gibt, fallen Abweichungen erst recht auf: Um eine Ahndung zu ermöglichen und für alle Marktteilnehmer Klarheit zu schaffen, einigt sich die Branche auf Standards zu oben genannten Punkten. Hierfür werden Arbeitsgruppen genutzt, in denen alle relevanten Marktpartner vertreten sind.

Im Prinzip ist es simpel: Transparenz und Verbindlichkeit sind die Feinde von Betrug. Die durch den FOMA geforderten Maßnahmen tragen zur Sicherung der digitalen Werbeumfelder bei und verbessern das Nutzererlebnis von Online-Werbung.

Dieser Beitrag erschien zuerst bei wuv.de.

Grundlagen für die Programmierung von Amazon Echo Show

Das neue Echo Show ist ein Hardware gewordenes Learning von Amazon, das auf die Probleme und Hürden aller Voice Interfaces eingeht: Die Informationsvermittlung. Echo Show kompensiert nämlich die Limitierung der Informationsvermittlung eines Voice Interfaces mit einem klassischen Display. So wird aus einem No-Interface Device ein neuer Full Service Touchpoint im digitalen Ökosystem, das für uns noch ungeahnte Möglichkeiten mit sich bringt. Wie wir diese neue Komponente, den Screen mit Delegation über den Amazon Endpoint ansprechen können, sehen wir uns im Folgenden genauer an. Reverse Engineering ist hier das Stichwort.

Der Look von Echo Show ist nicht sonderlich aufregend und erinnert in seiner Art an SciFi-Filmen aus den 70ern. Vorne eine schräge Fläche, im Mittelpunkt ein Display, darüber die Kamera, darunter das Lautsprechergitter. Trotzdem wirkt das Gerät im Wohnzimmer nicht deplatziert. Unser Echo Show mussten wir über eine amerikanische Adresse beziehen, da es in Deutschland noch nicht erhältlich ist. Ein Erscheinungsdatum für den deutschen Markt hat Amazon bisher noch nicht genannt.

Aktuell gibt es noch keinen Leitfaden für Developer

Ähnlich spartanisch sieht es mit den Informationen für Developer und die Entwicklung von Skills auf dem Echo Show aus. Der Developer-Bereich Amazons liefert zwar Auskunft darüber, wie die JSON-Kommunikation zwischen Skill und Endpoint aussehen muss, damit man die neue Funktionalität ansprechen kann. Parameter werden beschrieben, Templates gezeigt und Callbacks erklärt. Aber eben alles nur auf Basis der Kommunikationsprotokolle und nicht als Leitfaden. Sind wir traditioneller Nutzer des Alexa Skill Kit-Frameworks für Java gucken wir also erstmal in die Röhre. Ein Vermerk in der neusten Framework-Version im Github verrät uns zwar, dass die Version 1.4 für Echo Show vorbereitet wurde, allerdings gibt es dazu weder Dokumentationen noch Code-Beispiele.

Welche Darstellungsmöglichkeiten bietet Echo Show?

Nun haben wir hier aber ein Echo Show stehen und möchten dafür auch einen Skill entwickeln. Also Augen zu und hinein in den Framework-Code, der beim letzten Release commited wurde. Zuerst müssen wir uns fragen, was wir eigentlich erwarten. Echo Show kann auf vielfältige Weise Informationen abbilden. Es muss also eine Möglichkeit geben, Informationen zu layouten und diese dann irgendwie als Response an den Alexa-Endpoint zu übermitteln. Schauen wir uns das Response-Objekt an, sehen wir, dass sich hier zum letzten Release so gut wie nichts geändert hat. Die einzige Stelle, an der wir ansatzweise dynamische Daten übergeben könnten, sind die sogenannten Direktiven. Suchen wir ein wenig im Framework, finden wir die RenderTemplateDirective und genau diesen kann man ein Template übergeben.

Templates sind uns bereits auf den Development-Seiten Amazons begegnet (https://developer.amazon.com). Zurzeit gibt es insgesamt sechs feste Templates: Zwei zur Darstellung von Content Lists und vier zur Darstellung von Single Content. Die beiden Templates für Content Lists unterscheiden sich darin, dass das eine für horizontale, das andere für vertikale Listen gedacht ist. Die vier Templates für Single Content unterschieden sich in ihren Darstellungsmöglichkeiten wie folgt (siehe Abbilung 1):

  • BodyTemplate1
  • Title (optional)
  • Skill icon (provided in developer portal)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate2
  • Title (optional)
  • Skill icon (provided by developer portal)
  • Image (optional – can be a rectangle or square)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate3
  • Title (optional)
  • Skill icon
  • Image (optional – can be a rectangle or square)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate4
  • No title
  • Skill icon
  • One full-screen image (1024 x 600 for background)
  • Rich or Plain text

Abbildung 1: Unterschiede der Templates für Single Content

Wollen wir also Informationen aufs Display des Amazon Show bekommen, müssen wir uns erst einmal darüber im Klaren sein, welches Template zur gewünschten Information passt. Ein Creative Conceptioner muss hier genau planen, damit die User Experience erwartungskonform und vor allem intuitv gestaltet ist. Kommt der User mit der dargestellten Information nicht zurecht, nützt die sauberste Programmierung nichts. Um erste Hnweise und Feedback zu erhalten, eignen sich qualitative Nutzerbefragungen besonders gut.

Wie erstelle ich Bilder- und Textinhalte?

Technisch gesehen instanziieren wir einfach eines der Templates, das wir unter com.amazon.speech.speechlet.interfaces.display.template finden. Für entsprechende Properties wie Title, Icon, Background usw. gibt es jeweils Getter und Setter. Für Bilder gibt es eine Image– und eine ImageInstance-Klasse. Bilder werden in Form von Url´s zum entsprechenden Imagesource übergeben. Text-Content kann als Plain- oder Richtext übergeben werden. Bei letzterem gibt es die Möglichkeiten einige Markup-Tags für die Formatierung zu benutzen, die wir auch von HTML kennen. So gibt es <br/>,<b>,<i>,<u> und <font size=“n“>. Hier sind ebenfalls unterschiedliche Bereiche für Content innerhalb des Text Contents zu finden. Haben wir nun Bilder und Texte definiert und in die Properties des entsprechenden Templates eingetragen, ist der nächste Schritt dieses Template an die RenderTemplateDirective-Instanz zu übergeben. Unsere neue Direktive tragen wir nur noch in die Liste von Direktiven ein und übergeben diese dem Response-Objekt. Wenn wir den Skill jetzt aufrufen, ist der neu erstellte Content zu sehen.

Wie definiere ich Content für den Touch Screen?

Das Display des Echo Shows ist ein 7-Zoll Touchdisplay. So ist es auch möglich, Elemente einer Content List oder Single Content auszuwählen. Dazu hat jedes Single Content Template und jedes Element eines List Templates einen sogenannten Token. Aus der Sicht des Frameworks ist dieser Token eine Property vom Typ „String“ und dient beim Callback zur Identifikation des gedrückten Elements. Schauen wir uns an, wie wir bisher Skills entwickelt haben, stellen wir fest, dass wir den Callback nur zu einem erkannten Intent bekommen, also nur, wenn der Nutzer etwas gesagt hat. Das ist zwar für das Voice Interface ausreichend, nicht aber für das Display. Das SpeechletV2- Interface unterstützt jedoch ausschließlich Voice Callbacks.

Schauen wir uns aber den SpeechletRequestDispatcher im Framework genauer an, sehen wir, dass der Dispatcher auf ganz unterschiedliche Requests reagieren kann. So gibt es AudioPlayerRequest, PlaybackController, SystemRequests, aber auch DisplayRequests. Wird ein DisplayRequest erkannt, versucht der Dispatcher vom Interface Display die Methode onElementSelected aufzurufen. Was wir also tun müssen, um dieses Callback zu bekommen, ist, nicht nur das SpeechletV2 in unserer Speechlet-Klasse zu implementieren, sondern auch das Display-Interface. Haben wir dies getan, können wir mit folgender Methode überschreiben:

 

public SpeechletResponseonElementSelected(SpeechletRequestEnvelope<ElementSelectedRequest> requestEnvelope)

Abbildung 2: Überschreibung des Callbacks

Diese Methode des Callbacks wird nun immer dann aufgerufen, wenn auf dem Display ein Element selektiert wird. Wird der Callback aufgerufen, können wir uns aus dem requestEnvelope über requestEnvelope.getRequest().getToken() den Token, also den Bezeichner des Elements, welches gedrückt wurde, zurückgeben lassen und entsprechend reagieren. Bei der Wahl des Bezeichners sind wir völlig frei.

Die Response auf ein ElementSelectedRequest ist eine normale SpeechletResponse. Wir können also sowohl Sprache als auch ein weiteres Display Template zurückgeben. Daher ist es auch möglich die von Mobile Devices gängigen Master/Detail-Views zu implementieren. Genau für diese Mechanismen ist der Backbutton gedacht, der standardmäßig für jedes Template aktiviert werden kann. Die Implementierung der Funktionalität bei einem „go back“ liegt allerdings beim Entwickler.

Fazit

Zurzeit ist es für Java-Entwickler eher schwierig, sich dem Thema Echo Show zu nähren. Google und Stack Overflow geben weder Links zu Beispielen noch Dokumentationen. Außer den wenigen Informationen direkt von Amazon ist bisher nicht viel zu finden. Will man seine Zeit nicht mit der Analyse des Frameworks verbringen, ist man gezwungen zu warten, bis die Entwicklerszene oder Amazon weitere Informationen liefern. Hat sich einem die Erweiterung des Frameworks jedoch erschlossen, macht die Entwicklung von Skills für Echo Show einen stimmigen und durchdachten Eindruck.

Negativ aufgefallen sind eher Kleinigkeiten. So funktioniert das Preloading von Bildern in Content Lists eher schlecht als recht. Es ist nicht sehr schön anzusehen, dass Bilder von Listenelementen erst peu à peu erscheinen. Hier muss man bei der Konzeption von Skills zukünftig also auch auf die Zugriffszeit von Content Servern achten oder darauf hoffen, dass Amazon entsprechende Mechanismen verbessert. Generell bleibt abzuwarten, was sich Amazon an Erweiterungen einfallen lassen wird.

Was Entwickler zukünftig aus der Kombination von Voice Interfaces und Touch Screens herausholen werden ist sehr interessant. Eine enge Zusammenarbeit zwischen Konzeption, Kreation und Entwicklung scheint hier unerlässlich zu sein. Insgesamt wird Amazon Echo Show sicherlich wieder große Veränderungen in den Markt bringen.

Der Artikel wurde auf Entwickler.de veröffentlicht.

Performance-Tracking meets User Journey

Beim Thema Web Analytics hören wir immer wieder, wie kompliziert es doch sei, brauchbare Daten und Erkenntnisse zu sammeln, um die Performance einer Website device-übergreifend und über den Aufruf von URLs hinaus zu analysieren und damit die User Journey zu optimieren. Die Standardfunktionen von Google Analytics liefern dafür nicht die gewünschten Daten, so der Vorwurf. Das stimmt so allerdings nicht. Oftmals ist Connected Commerce eben doch einfacher als man denkt.

Google Analytics trackt vieles, aber bei weitem nicht alles

Viele Webseitenbetreiber greifen beim Webtracking ausschließlich auf die Standardimplementierung von Google Analytics als Werkzeug für ihre Auswertungen zurück. Dies kann in bestimmten Fällen auch völlig ausreichend sein, gibt Google Analytics doch Auskunft über eine ganze Reihe wichtiger Kennzahlen (KPIs), wie etwa die Anzahl der Nutzer, Sitzungen und Seitenaufrufe oder die Absprungrate in einem definierten Zeitraum. Darüber hinaus liefert das Tool neben demographischen Merkmalen eine ganze Reihe von Geräteinformationen, um beispielsweise die Unterseiten zu erkennen, auf denen besonders viele Benutzer von Mobilgeräten abspringen – so können Sie eventuelle Probleme bei der mobilen Nutzung Ihrer Seite aufdecken.

Doch wie gehen Sie vor, wenn Sie auswerten möchten, wie oft ein ganz bestimmter Button auf einer Seite angeklickt wurde? Oder von welcher Seite aus ein Nutzer mit Ihrem Support-Chat interagiert hat? Und wie sieht es mit der Scroll-Tiefe aus, den Datei-Downloads oder dem Aufruf externer Links? All diese Fragen kann Google Analytics nicht per se beantworten. Es gibt aber eine einfache und zugleich mächtige Lösung, die fest in Google Analytics integriert ist: das Event-Tracking, also das Erfassen von Ereignissen alle Art.

Bisher mussten diese Ereignisse bereits im Vorfeld genau geplant und in der Programmierung einer Webseite verankert werden, damit sie auch an Google Analytics zum Tracken gesendet wurden. Durch den Google Tag Manager ist das Einrichten von Events agiler und deutlich einfacher. Sie benötigen keine Programmierkenntnisse und können direkt loslegen sobald der Google Tag Manager in Ihrer Seite eingebunden ist. Für viele CMS- und Shop-Systeme gibt es bereits fertige Plugins, sodass Sie nicht einmal einen Entwickler für den Einbau benötigen.

Sie haben noch nichts vom Google Tag Manager gehört? Christoph Küpfer von ad agents beschreibt das Tool im Artikel „Der Google Tag Manager: Die eierlegende Wollmilchsau“ auf internetworld.de sehr treffend wie folgt: „Webanalytics ohne Tag Manager ist wie Wäsche waschen ohne Waschmaschine. Es geht – aber es ist Zeit- und Ressourcen-Verschwendung.“

Erfassen und Auswerten von Events mittels Google Tag Manager – drei Beispiele zeigen, wie es geht

1. Sie möchten wissen, wie oft ein Button/eine Grafik geklickt wurde?

Webseiten verfügen in der Regel über mehrere Formulare oder Teaser-Grafiken, die den Besucher zu einer Aktion auffordern. Wie oft Besucher tatsächlich mit diesen Call to Actions (CTAs) interagieren, können Sie leicht mit dem Google Tag Manager erfassen. Dazu richten Sie jeweils einen Trigger (das „WENN“) und ein Tag (das „DANN“) ein – WENN zum Beispiel ein Button mit der Aufschrift „Nachricht senden“ geklickt wird, DANN wird durch ein entsprechendes Tag ein Event an Google Analytics gesendet. Ein Event besteht immer aus vier Dimensionen, die Sie mit beliebigen Werten im Google Tag Manager befüllen können: die Eventkategorie, die Ereignisaktion, das Ereignislabel und den optionalen Ereigniswert.
Nehmen wir beispielsweise ein Kontaktformular: Zuerst legen Sie eine Eventkategorie fest. Diese kann den statischen Text „Kontaktformular“ enthalten. In der Ereignisaktion lautet die Aktion innerhalb dieser Kategorie „Abgesendet“, wenn das Formular abgeschickt wird. Als Ereignislabel erfassen wir bei unseren Implementierungen meist den aktuellen Seitenpfad. Für diesen gibt es eine eingebaute Funktion im Google Tag Manager, die Sie einsetzen können, indem Sie {{Page Path}} an der entsprechenden Stelle einfügen. Wenn Sie Ihr Kontaktformular auf mehreren Seiten oder in einer Seitenlasche eingebaut haben, können Sie auf diese Weise auswerten, von wo aus das Kontaktformular wie oft abgesendet wurde. Der Ereigniswert kann das Event noch gewichten. Für eine abgesendete Kontaktanfrage sollten Sie einen höheren Wert hinterlegen als bei einem angeklickten Teaser.

2. Absprungraten durch die Scroll-Tiefe relativieren

Ein Absprung ist nicht immer etwas Schlechtes. Besonders Blog-Betreiber kennen das Phänomen, dass Besucher eine Lösung für ihr Problem finden und anschließend ohne weitere Interaktion den Blog wieder verlassen. Die Verweildauer kann hier bereits einen ersten Anhaltspunkt darüber geben, ob der Besucher Ihren Text gelesen hat oder sofort wieder gegangen ist. Da jedoch immer mehr Menschen mehrere Seiten in Tabs öffnen, läuft die Verweildauer in mehreren Tabs parallel, auch in den inaktiven.
Abhilfe schafft eines der zahlreichen fertigen Scripts, die über den Google Tag Manager eingebunden werden können und die Scroll-Tiefe in 10- oder 25-Prozent-Schritten erfassen können. Entsprechende Events zeigen Ihnen später bei der Auswertung, wie viele Ihrer Besucher Ihren Text auf der jeweiligen Seite auch bis zum Ende gelesen beziehungsweise zumindest durchgescrollt haben.

3. Erfassen von Datei-Downloads und ausgehenden Links

Google Analytics ist eigentlich nicht zur Erfassung von ausgehenden Links oder zum Tracking von Datei-Downloads ausgelegt. Auch hier helfen die eingebauten Funktionen des Google Tag Managers, um Bedingungen an Link-Klicks zu prüfen.
Das Linkziel ist in der eingebauten Funktion {{Click URL}} enthalten und kann entsprechend geprüft werden. Enthält der Link eine bestimmte Dateiendung, zum Beispiel „.pdf?“, dann löst das ein Event aus, das die aktuelle Seite ({{Page Path}}) und das Linkziel ({{Click URL}}) erfasst. Dadurch können Sie später in Google Analytics auswerten, wie häufig welche Datei von welcher Seite aus heruntergeladen wurde. Bei ausgehenden Links prüfen Sie hingegen nur, ob die Ziel-Domain von der aktuellen Domain abweicht. Ist dies der Fall, dann handelt es sich um einen ausgehenden Link und Sie erfassen wieder die aktuelle Seite und die Zielseite in einem Event.

Fazit

Während die Standardfunktionen von Google Analytics eher einen Blick von oben auf Gruppen von Nutzern erlauben, können Sie durch das Event-Tracking mit dem Google Tag Manager detailliertere Einblicke erhalten. Sie können sogar bis auf Benutzerebene herunterbrechen, welche Events ein bestimmter Nutzer ausgelöst hat. Dies ist spätestens dann hilfreich, wenn Sie bezahlten Traffic aus Suchmaschinen oder sozialen Netzwerken erhalten. Durch die Events können Sie sehr genau feststellen, ob diese eingekauften Besucher die von Ihnen erhofften Aktionen auch wirklich durchführen und einen entsprechenden Return of Investment (ROI) für Sie generieren. Interessant ist das Thema umso mehr, wenn wir Web-Tracking in den übergeordneten Connected-Commerce-Zusammenhang stellen. Der Google Tag Manager ist zu unrecht nur auf etwa 14 Prozent der Websites eingebaut (laut einer Usage-Statistik des Internet-Service BuiltWith), obwohl er eine solide und vor allem einfache Basis bietet, die mit vielen wertvollen Funktionen dazu beiträgt, Ihre Kunden kennenzulernen und sie ins Zentrum zu stellen. Er hilft Ihnen dabei, eine nahtlose und nutzerzentrierte Customer Journey anzubieten.

Dieser Beitrag erschien zuerst bei Internet World Business.

Datenbasiertes Marketing: „Menschliche Intelligenz ist unverzichtbar“

Diana Degraa, Geschäftsführerin von Plan.Net Hamburg, spricht im Interview mit dem Blog „Frauen und Technik“ über ihre technische Erfahrung, über ihre Tipps für weibliche Talente und welche Rolle Big Data und Business Intelligence künftig spielen.

Live, liver, am livesten

Im letzten Jahr haben wir in unserem Blog bereits über Live-Streams informiert. Nun gibt es aber einige neue Mitspieler auf dem Markt und auch die Relevanz für Live-Streams ist deutlich gestiegen. Immer mehr Unternehmen und Influencer nutzen die verschiedenen Plattformen, um ihre Fans live am Geschehen teilhaben zu lassen.

Wo sich die Plattformen im letzten Jahr hinbewegt haben, erläutert Julia May in einem kurzen Update im Mediascale Blog.

Warum Voice Search nicht das Ende von SEO ist

Siri, Alexa, Cortana, Google Assistant und Co. liegen unbestritten im Trend: Seit dem Marktstart 2015 soll allein Amazon in den USA weit über acht Millionen Echos und Echo Dots verkauft haben, gerade ist nun Apple mit dem HomePod auf den Zug der smarten Lautsprecher aufgesprungen. Laut einer aktuellen Statista-Auswertung nutzen in Deutschland rund 17 Millionen den virtuellen Assistenten von Google, elf Millionen fragten Siri bei Apple und knapp sieben Millionen kommunizierten mit Microsofts Cortana. Ob auf dem Smartphone oder über einen smarten Lautsprecher, immer mehr Menschen suchen per Sprachsteuerung. Laut einer ComScore-Prognose soll schon in drei Jahren die Hälfte aller Suchen über Spracheingabe erfolgen. Mindestens 30 Prozent suchen dann sogar ohne eigenen Bildschirm. Anhand dieser Zahlen wird vielen Marketern flau im Magen. Wenn sich unser Suchverhalten durch die neuen Geräte ändert, was passiert dann mit SEO? Ist also schon wieder das Ende der Suchmaschinenoptimierung eingeläutet? Nein, immer noch nicht!

Keine Frage, Voice Search ändert unser Suchverhalten dramatisch, denn die gesprochenen Suchanfragen unterscheiden sich tiefgreifend vom schriftlichen Eintippen. Suchbegriffe und -phrasen werden über Sprachsteuerung länger, unspezifischer, beschreibender und nähern sich dem natürlichen Sprachgebrauch an. Damit werden sie aber auch komplexer und erschweren so das Verstehen der eigentlichen Absicht hinter der Suche, denn Keywords und ihre Attribute als Merkmale der Suche stehen nicht mehr an vorderster Stelle.

Müssen sich Agenturen und Werbetreibende deswegen graue Haare wachsen lassen? Nein, denn die Sprachsuche und das veränderte Eingabeverhalten sind eher Herausforderungen für die Suchsystemanbieter – also für Google, Apple, Amazon, Microsoft & Co., die im verschärften Wettbewerb stehen, sich auf das neue Nutzerverhalten einzustellen. Verstehen Alexa, Siri & Co. bestimmte Fragen nicht, liegt es an den Anbietern von Suchsystemen und Suchassistenten, die Lösung hierfür zu erbringen. Diese Herausforderung ist für die dominanten Konzerne jedoch nicht neu. Ihre Algorithmen können mittlerweile immer besser die Absicht hinter einer Suche erkennen und die passenden Ergebnisse liefern. So hat sich Google beispielsweise schon vor fünf Jahren für den Trend gewappnet: mit seiner „Semantischen Suche“ und seit 2015 mit dem auf künstlicher Intelligenz basierendem System Rank Brain. Kleine Ausnahme: Fragen Sie Siri mal nach SEO. Da kommt auch beim vierten Mal kein richtiger Treffer.

Für die Suchmaschinenoptimierung finde ich eines viel interessanter als die Fragen, die über Voice Search gestellt werden: die Antworten, die daraus resultieren. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Wollen Sie ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Wollen Sie nur in Ruhe stöbern oder benötigen Sie die Hilfe eines Verkäufers? Reicht Ihnen eine kurze Antwort oder wollen Sie ihre Anfrage mehrfach nachspezifizieren, bis Sie zum passenden Ergebnis kommen?

Die Herausforderung für die SEO-Experten liegt künftig also in diesen Konversationen zwischen den Suchenden und den Sprachassistenten. Denn eindeutige und direkte Antworten sind nur für einen kleinen Teil von Suchanfragen umsetzbar, zum Beispiel für die Wettervorhersage fürs Wochenende, die Öffnungszeiten des Arztes, die Einwohnerzahl von Madagaskar oder den Staureport. Schon heute liefern die Quellen für Googles „Featured Snippet“ Antworten auf solche Fragen. Das Ableiten, Aufbereiten und Beantworten solcher Fragen bedarf aber bei der sprachgesteuerten Suche keiner generellen Neuausrichtung. Künftig werden besonders lokale Suchanfragen über Voice Search eine prominente Rolle spielen. Schon heute ist die Auszeichnung geolokaler Informationen auf der Website SEO-Grundlagenarbeit (Stichwort: Semantic Markups). Noch wichtiger wird aber die Integration von lokalen Daten für Geschäfte, Hotels oder Restaurants in bestehende, auf solche Anfragen spezialisierte Suchmaschinen, wie z.B. YELP oder KAYAK. Beide Anbieter haben bereits Skills auf Amazon Echo und dienen auch Suchassistenten wie Siri und Cortana als Referenz.

Schwieriger wird es bei offen gestellten Fragen und Aussagen, in denen der Fragende nach einer Beratung sucht. Diese Fragen sind ähnlich denen, die wir auch im Geschäft äußern würden: zum Beispiel „Ich möchte einen Fernseher kaufen“ oder „Ich suche ein Kleid“. Denn auf diese Frage kann nicht einfach mit einer Antwort gekontert werden. Es muss also eine Gegenfrage gestellt werden – zum Beispiel: „Zu welchem Anlass möchtest du das Kleid tragen?“.

Gutes SEO bedeutet schon heute auf die Suchintention zu optimieren. In Zeiten von Voice Search wird es noch wichtiger für Webseitenbetreiber und Suchexperten, die Suchintentionen ihrer Zielgruppen zu verstehen und zu bedienen. Nur so können sie Mehrwert vermitteln und ihr Informationsangebot passgenau auf die Nachfrage ihrer potentiellen Kunden abstimmen. Die sprachgesteuerte Suche wird SEO also nicht zu Grabe tragen, aber sie bringt uns dazu, den Blick noch stärker als bisher über den Google-Tellerrand hinaus zu lenken. In Zukunft muss sich SEO auch darum kümmern, Informationen im Kontext von Inhalten zu definieren und diese automatisiert zu übergeben.

„Digital ist immer dynamisch und agil.“

Nicht nur die Unternehmen, auch die Agenturen stecken knietief in der digitalen Transformation. Adzine besuchte das Haus der Kommunikation Hamburg und sprach mit der Plan.Net Hamburg Agenturchefin Diana Degraa über die gegenwärtigen Herausforderungen einer Digitalagentur.

Warum wir Online bessere Werbeformen brauchen

Ein Skyscraper hier, ein Billboard da und dazwischen immer mal wieder eine Layer Ad: Auf einer Online-Seite, die – sagen wir mal – die Bedürfnisse der Nutzer nicht zu 100 Prozent in den Vordergrund stellt, kann man sich schnell mal wie auf einer Seitenstraßen des Times Square fühlen. Überall blinkt und leuchtet es. Verständlich, wenn sich Nutzer davon entnervt abwenden. Natürlich gibt es auch überall sonst Werbung, in manch einer Zeitschrift vermutlich sogar mehr als auf einer Online-News-Seite. Doch die Aufteilung zwischen Content und Ads wirkt dort meist aufgeräumter und weniger aufdringlich. Klar, ein Magazin bietet komplett andere Design-Voraussetzungen als eine Website – aber es muss doch trotzdem möglich sein, gewisse Ansprüche an Werbemittel auch in der digitalen Welt zu erfüllen. Vermarkter versprechen qualitativ hochwertige Werbeplätze, Nutzer wollen es, doch die Wirklichkeit erinnert in manchen Fällen immer noch an einen überladenen Rummelplatz.

Es ist höchste Zeit für einen digitalen Frühjahrs- bzw. Sommerputz. Und das betrifft uns alle: Vermarkter, Werbetreibende, Kreativ- und Mediaagenturen. Wollen wir uns nicht langsam endgültig davon verabschieden, dass Werbung immer ein Fremdkörper in der Gestaltung ist? Ein optimales Nutzererlebnis sollte auch Online oberste Prämisse haben. Inflationär eingesetzte Pop-ups bewirken jedoch genau das Gegenteil. Ebenso die klassischen Rectangle-Formate, die weder optisch noch inhaltlich an den redaktionellen Content angepasst sind.

Im Online-Zeitalter dreht sich alles um Relevanz, das sollte sich neben dem Inhalt auch auf die Ästhetik der Werbung auswirken. Regel Nummer eins lautet hier: Seid höflich. Wenn ich Konsumenten von meinem Angebot überzeugen möchte, sollte ich sie nicht permanent beim Lesen stören. Es muss uns gelingen, Aufmerksamkeit zu wecken, ohne dabei penetrant zu sein. Gleichzeitig müssen wir den Spagat schaffen, und das ist Regel Nummer zwei, Online so großflächig wie möglich zu werben. Auf 200 mal 300 Pixeln können Kreative nur selten ihr Können zeigen. In der Desktop-Anwendung stechen da aktuell Sticky Dynamics positiv hervor. Großflächige Ads, die sich beim Scrollen mitbewegen und im Optimalfall mit Bewegtbild-Elementen angereichert sind – ohne dabei die redaktionellen Inhalte zu unterbrechen.

Wenn ich großflächig werben und dabei nicht nerven möchte, ist es umso wichtiger, Zielgruppe, Werbung und redaktionellen Content aufeinander abzustimmen. In Printmedien können Werber ihre Anzeige auf den Redaktionsplan anpassen. Online-Artikel entstehen zwar weitaus kurzfristiger, doch in Zeiten von Big Data gilt auch hier: Context ist King! Höflich zu werben heißt, dem der Zielgruppe in der Nutzungssituation ein Angebot zu machen: „Du liest einen Artikel über‘s Bergsteigen – wenn du für die Saison noch Outdoor-Equipment brauchst, bist du hier richtig.“ Im Optimalfall nutzen Werbetreibende ein Multitab-Werbemittel, damit User das Angebot durchstöbern können, ohne die aktuelle Website verlassen zu müssen. Theoretisch könnte sogar eine komplette Customer Journey inklusive Kaufabwicklung innerhalb eines Multitab-Werbemittels stattfinden.

Auf den mobilen Endgeräten wirken alle Content-Streaming-Formate weitestgehend gut. Inhalte und Werbung sind klar voneinander abgegrenzt und User können die Ads einfach wegscrollen. Generell kann man sagen: Jede Werbung, die man nicht wegklicken muss, ist ein Schritt in die richtige Richtung. Denn die Klicks vieler Layer Ads kommen doch hauptsächlich zustande, weil einige User das X nicht treffen, um die Werbung zu schließen.

Darüber hinaus bietet das Smartphone natürlich aber per se schon ganz andere technische Funktionalitäten, als die Desktopvariante. So sorgen Interactive Move-Formate wie beispielsweise Shake Ads, 3-D-Ads und Panorama Ads  durch das Bewegen des Smartphones für spielerische Interaktion und ein vollkommen anderes, überraschendes Markenerlebnis beim Nutzer.

Also, liebe Branche, packen wir es an! Wir brauchen Online dringend einen Qualitätsschub der Werbeformate, denn der jetzige Standard grenzt manchmal leider noch immer an Wegelagerei. Die gute Nachricht: Dieser Umstand scheint inzwischen aber auch teilweise erkannt zu sein. So bildet beispielsweise die „Goodvertising-Inititiative“ von BURDA Forward eine positive Speerspitze für mehr nutzerfreundliche Werbung. Als plakativen Beweis für die Umsetzung der Strategie ist die Umstellung beim Layout von Focus Online hervorzuheben. Das ursprünglich dreispaltige Grundraster der Webseite wich einer wesentlich ansprechenderen Zweispaltigkeit.

Großartige redaktionelle Inhalte verdienen innovative, hochwertige und vor allem nutzerfreundliche Werbemittel. Die lassen sich nebenbei gesprochen wahrscheinlich auch teurer vermarkten als eine Rummelplatz-Resterampe. Schaffen wir das nicht, kennen wir die Alternative: genervte User, die Adblocker installieren.

Dieser Beitrag erschien zuerst bei W&V.

Der Relaunch von Twitter – kein Design-Gewitter

Ein Design-Update von Twitter und ein Raunen geht durch die iOS Familie… Denn dieser Fresh-up betrifft in erster Linie die Apple Device Nutzer. Diese sind bei Twitter nämlich nicht die Speerspitze der Zielgruppe für eine verbesserte Usability, sondern die Nachzügler. Android Nutzer haben diese optischen Anpassungen größtenteils bereits hinter sich.

Die Überarbeitung ist nicht dem Anspruch geschuldet, den Kanal aus Imagegründen heraus getrieben zu verschönern oder einzigartiger wirken zu lassen, sondern eine Vereinfachung bei der Bedienbarkeit zu gewährleisten. Insbesondere für Neulinge.

Wenn Labortests zeigen, dass sich das Klientel schwer tut mit Ikonographie, Menüführung und Zuordnung der Botschaften innerhalb einer Anwendung, sollte man schleunigst optimierend eingreifen. Im Übrigen ein absolut üblicher Vorgang im Tagesgeschäft der Digitalagenturen. Auch hier werden (je nach Kunde) permanent Testings durchgeführt um den User so einfach wie möglich abzuholen.

Dass Twitter mit dem Vorwurf konfrontiert wird, sich visuell zu stark bei Google Plus inspiriert haben zu lassen, weil jetzt alles viel runder sei, ist ziemlich absurd.
Auch Google Plus ist nicht der Erfinder des runden Profilfotos. Und wenn es bei Twitter immer wieder zu Verständnisproblemen kam, weil User nicht zwischen den rechteckigen Bildern in Tweets und den ebenfalls rechteckigen Profilbildern unterscheiden konnten, ist eine Umstellung nur konsequent.

Bei den Design-Neuerungen auf Twitter handelt es sich um optische Eingriffe, betreffend Navigation und Funktionalitäten. Es geht um den Einsatz gelernter Ikonografie, welche sich im Verständnis der User verankert hat.

Wir nutzen nun mal auch kein anderes Symbol als das gelernte Briefkuvert, wenn es darum geht die Bedeutung einer bestimmten Art von Kommunikationsaustausch bildlich zu beschreiben.

Daher ist es auch hier konsequent, wenn Twitter sich endlich von seinem (Antwort-) Pfeil verabschiedet zum Wohle einer viel leichter verständlichen Sprechblase.
Auch der Einsatz eines leichteren Schriftbilds gepaart mit plakativeren Headlines unterstützt in erster Linie die Grundsätze der klassischen Typografielehre.

Dass einer Vielzahl der aktuellen Twitter-Nutzer die Änderungen nicht weit genug reichen, weil die Vermeidung von Fake-Accounts und der Kampf gegen Hasspostings davon nicht betroffen sind, kann ich gut nachvollziehen. Diese Themen betreffen aber auch eher moralische Werte denn ästhetische.

Dieser Beitrag erschien zuerst bei Internet World Business.

Connected Retail – Customer Centricity meets Store

Wenn Großinvestor Warren Buffet nicht mehr an den stationären Handel glaubt, dann ist das schon ein Paukenschlag. So darf man es auf jeden Fall deuten, wenn dessen Holdinggesellschaft „Berkshire Hathaway“, Wallmart Aktien im Wert von 900 Millionen US-Dollar verkauft und stattdessen lieber in Airlines investiert. Das Branchenportal Business Insider fragt sogar, ob es sich hierbei um den „Todesstoß für eine ganze Branche“ handelt.

PCs, Laptops, Smartphones, Tablets, Wearables – die Möglichkeiten um einzukaufen, sich beraten zu lassen oder einfach nur um zu stöbern sind grenzenlos. Ausgefeilte Produktdarstellungen und -beschreibungen, Chatbots sowie Live-Chats ersetzen mehr und mehr die Verkäufer im stationären Handel. Zunehmend kostenlose und immer schnellere Lieferungen sparen Zeit und schonen Nerven. Zusätzlich hilft Big Data dabei, den Online-Shop zu personalisieren und Waren schneller zu finden oder gar den richtigen Vorschlag für etwas zu bekommen, von dem man gar nicht wusste, dass man es sucht. 1:0 für den Online-Shop, könnte man meinen.

Seit einiger Zeit ist aber auch ein Gegentrend zu beobachten: Der Einkauf im stationären Shop hat für den Kunden wieder eine gewisse Wertigkeit erlangt. Das gilt aber selbstverständlich nur, wenn er sich davon einen Mehrwert verspricht. Für Konsumenten geht es längst nicht mehr um ein „Entweder Oder“. Sie wollen beides – sowohl Online-Shopping als auch Einkaufen im stationären Handel – und das am besten auf intelligente Weise miteinander verknüpft. Das bringt den stationären Handel wieder zurück ins Spiel.

Dabei ist die berühmte „Seamless Customer Journey“, also das nahtlose Einkaufen, aber noch längst nicht erreicht, wenn im Store Verkäufer mit Tablets ausgestattet sind bzw. digitale Beratungsterminals aufgestellt werden, um die Verlängerung in den Online-Shop zu gewährleisten. Möglichkeiten wie Beacon-Installationen im Shop, Tracking der mobilen Devices oder Voice Services wie Amazons Alexa ermöglichen es den Endkunden da abzuholen, wo er zuletzt seine Reise begonnen, pausiert oder beendet hat – nämlich online.

Durch die intelligente Auswertung von Daten können Händler darüber hinaus auch endlich einen weiteren entscheidenden Nachteil beheben: Bisher wusste ein Einzelhändler nicht sonderlich viel über seinen Kunden, abgesehen von den besonders guten vielleicht. Weder wusste er, für was er sich vor, nach oder während des Filialbesuchs interessiert hat, noch ob er parallel zum Besuch im Store Preise bei Konkurrenten verglichen hat. Durch das ganzheitliche Sammeln und Erfassen von Verhaltensmustern, Vorlieben und Bedürfnissen der Kunden im Store und im Online-Shop können diese Informationen sinnvoll zu einem persönlichen Profil zusammengefasst und an den Kunden in Form von echten Mehrwerten zurückgegeben werden.

Die Voraussetzung dafür ist, dass die richtigen Fragen gestellt werden. Dem Multimedia-Store nützt die Information zur Haarfarbe weniger als der Musikgeschmack des Kunden. Nicht alle Daten sind relevant – umso wichtiger ist die richtige Datenstrategie. So haben nicht nur Shop-Betreiber die Möglichkeit sich dem Besucher anzupassen, sondern auch der stationäre Möbelhändler, der Hifi-Shop oder der Supermarkt am Ende der Straße.

Gesammelte Daten können bereits heute in Echtzeit ausgelesen und in eine Interaktion im POS umgewandelt werden. Allzu oft mangelt es aber an einer intelligenten Datenstrategie und scheitert an veralteten Strukturen, die nun aufgebrochen werden müssen. Wenn man dann außerdem bedenkt, dass künftig das Einkaufserlebnis am Point of Sale sowie die Effizienz einer perfekten Beratung dank Virtual und Augmented Reality auf ein ganz neues Level gehoben werden kann, sollte man den stationären Handel auf keinen Fall zu früh abschreiben.
Die digitale Transformation eröffnet zukunftsorientierten Retailern die Möglichkeit aufzuholen und zu 1:1 auszugleichen. Sie müssen die Chance nur ergreifen.

Warum bringen wir also nicht endlich das Beste von Online und Offline im Sinne des Endkunden zusammen? Wenn der Kunde wirklich im Fokus stehen soll, muss das eigene Kanaldenken durchbrochen und Neues gewagt werden. Doch das gelingt nur, wenn man das Verhalten der Konsumenten genau kennt und einen Plan hat, wohin die Reise gehen soll. Der POS steht unter Zugzwang – wer sich nicht den Bedürfnissen der Kunden anpasst, wie es jeder Online-Händler tut, hat in Zukunft keine Chance.

Dieser Artikel wurde auf internetworld.de veröffentlicht.