Beiträge

Grundlagen für die Programmierung von Amazon Echo Show

Das neue Echo Show ist ein Hardware gewordenes Learning von Amazon, das auf die Probleme und Hürden aller Voice Interfaces eingeht: Die Informationsvermittlung. Echo Show kompensiert nämlich die Limitierung der Informationsvermittlung eines Voice Interfaces mit einem klassischen Display. So wird aus einem No-Interface Device ein neuer Full Service Touchpoint im digitalen Ökosystem, das für uns noch ungeahnte Möglichkeiten mit sich bringt. Wie wir diese neue Komponente, den Screen mit Delegation über den Amazon Endpoint ansprechen können, sehen wir uns im Folgenden genauer an. Reverse Engineering ist hier das Stichwort.

Der Look von Echo Show ist nicht sonderlich aufregend und erinnert in seiner Art an SciFi-Filmen aus den 70ern. Vorne eine schräge Fläche, im Mittelpunkt ein Display, darüber die Kamera, darunter das Lautsprechergitter. Trotzdem wirkt das Gerät im Wohnzimmer nicht deplatziert. Unser Echo Show mussten wir über eine amerikanische Adresse beziehen, da es in Deutschland noch nicht erhältlich ist. Ein Erscheinungsdatum für den deutschen Markt hat Amazon bisher noch nicht genannt.

Aktuell gibt es noch keinen Leitfaden für Developer

Ähnlich spartanisch sieht es mit den Informationen für Developer und die Entwicklung von Skills auf dem Echo Show aus. Der Developer-Bereich Amazons liefert zwar Auskunft darüber, wie die JSON-Kommunikation zwischen Skill und Endpoint aussehen muss, damit man die neue Funktionalität ansprechen kann. Parameter werden beschrieben, Templates gezeigt und Callbacks erklärt. Aber eben alles nur auf Basis der Kommunikationsprotokolle und nicht als Leitfaden. Sind wir traditioneller Nutzer des Alexa Skill Kit-Frameworks für Java gucken wir also erstmal in die Röhre. Ein Vermerk in der neusten Framework-Version im Github verrät uns zwar, dass die Version 1.4 für Echo Show vorbereitet wurde, allerdings gibt es dazu weder Dokumentationen noch Code-Beispiele.

Welche Darstellungsmöglichkeiten bietet Echo Show?

Nun haben wir hier aber ein Echo Show stehen und möchten dafür auch einen Skill entwickeln. Also Augen zu und hinein in den Framework-Code, der beim letzten Release commited wurde. Zuerst müssen wir uns fragen, was wir eigentlich erwarten. Echo Show kann auf vielfältige Weise Informationen abbilden. Es muss also eine Möglichkeit geben, Informationen zu layouten und diese dann irgendwie als Response an den Alexa-Endpoint zu übermitteln. Schauen wir uns das Response-Objekt an, sehen wir, dass sich hier zum letzten Release so gut wie nichts geändert hat. Die einzige Stelle, an der wir ansatzweise dynamische Daten übergeben könnten, sind die sogenannten Direktiven. Suchen wir ein wenig im Framework, finden wir die RenderTemplateDirective und genau diesen kann man ein Template übergeben.

Templates sind uns bereits auf den Development-Seiten Amazons begegnet (https://developer.amazon.com). Zurzeit gibt es insgesamt sechs feste Templates: Zwei zur Darstellung von Content Lists und vier zur Darstellung von Single Content. Die beiden Templates für Content Lists unterscheiden sich darin, dass das eine für horizontale, das andere für vertikale Listen gedacht ist. Die vier Templates für Single Content unterschieden sich in ihren Darstellungsmöglichkeiten wie folgt (siehe Abbilung 1):

  • BodyTemplate1
  • Title (optional)
  • Skill icon (provided in developer portal)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate2
  • Title (optional)
  • Skill icon (provided by developer portal)
  • Image (optional – can be a rectangle or square)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate3
  • Title (optional)
  • Skill icon
  • Image (optional – can be a rectangle or square)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate4
  • No title
  • Skill icon
  • One full-screen image (1024 x 600 for background)
  • Rich or Plain text

Abbildung 1: Unterschiede der Templates für Single Content

Wollen wir also Informationen aufs Display des Amazon Show bekommen, müssen wir uns erst einmal darüber im Klaren sein, welches Template zur gewünschten Information passt. Ein Creative Conceptioner muss hier genau planen, damit die User Experience erwartungskonform und vor allem intuitv gestaltet ist. Kommt der User mit der dargestellten Information nicht zurecht, nützt die sauberste Programmierung nichts. Um erste Hnweise und Feedback zu erhalten, eignen sich qualitative Nutzerbefragungen besonders gut.

Wie erstelle ich Bilder- und Textinhalte?

Technisch gesehen instanziieren wir einfach eines der Templates, das wir unter com.amazon.speech.speechlet.interfaces.display.template finden. Für entsprechende Properties wie Title, Icon, Background usw. gibt es jeweils Getter und Setter. Für Bilder gibt es eine Image– und eine ImageInstance-Klasse. Bilder werden in Form von Url´s zum entsprechenden Imagesource übergeben. Text-Content kann als Plain- oder Richtext übergeben werden. Bei letzterem gibt es die Möglichkeiten einige Markup-Tags für die Formatierung zu benutzen, die wir auch von HTML kennen. So gibt es <br/>,<b>,<i>,<u> und <font size=“n“>. Hier sind ebenfalls unterschiedliche Bereiche für Content innerhalb des Text Contents zu finden. Haben wir nun Bilder und Texte definiert und in die Properties des entsprechenden Templates eingetragen, ist der nächste Schritt dieses Template an die RenderTemplateDirective-Instanz zu übergeben. Unsere neue Direktive tragen wir nur noch in die Liste von Direktiven ein und übergeben diese dem Response-Objekt. Wenn wir den Skill jetzt aufrufen, ist der neu erstellte Content zu sehen.

Wie definiere ich Content für den Touch Screen?

Das Display des Echo Shows ist ein 7-Zoll Touchdisplay. So ist es auch möglich, Elemente einer Content List oder Single Content auszuwählen. Dazu hat jedes Single Content Template und jedes Element eines List Templates einen sogenannten Token. Aus der Sicht des Frameworks ist dieser Token eine Property vom Typ „String“ und dient beim Callback zur Identifikation des gedrückten Elements. Schauen wir uns an, wie wir bisher Skills entwickelt haben, stellen wir fest, dass wir den Callback nur zu einem erkannten Intent bekommen, also nur, wenn der Nutzer etwas gesagt hat. Das ist zwar für das Voice Interface ausreichend, nicht aber für das Display. Das SpeechletV2- Interface unterstützt jedoch ausschließlich Voice Callbacks.

Schauen wir uns aber den SpeechletRequestDispatcher im Framework genauer an, sehen wir, dass der Dispatcher auf ganz unterschiedliche Requests reagieren kann. So gibt es AudioPlayerRequest, PlaybackController, SystemRequests, aber auch DisplayRequests. Wird ein DisplayRequest erkannt, versucht der Dispatcher vom Interface Display die Methode onElementSelected aufzurufen. Was wir also tun müssen, um dieses Callback zu bekommen, ist, nicht nur das SpeechletV2 in unserer Speechlet-Klasse zu implementieren, sondern auch das Display-Interface. Haben wir dies getan, können wir mit folgender Methode überschreiben:

 

public SpeechletResponseonElementSelected(SpeechletRequestEnvelope<ElementSelectedRequest> requestEnvelope)

Abbildung 2: Überschreibung des Callbacks

Diese Methode des Callbacks wird nun immer dann aufgerufen, wenn auf dem Display ein Element selektiert wird. Wird der Callback aufgerufen, können wir uns aus dem requestEnvelope über requestEnvelope.getRequest().getToken() den Token, also den Bezeichner des Elements, welches gedrückt wurde, zurückgeben lassen und entsprechend reagieren. Bei der Wahl des Bezeichners sind wir völlig frei.

Die Response auf ein ElementSelectedRequest ist eine normale SpeechletResponse. Wir können also sowohl Sprache als auch ein weiteres Display Template zurückgeben. Daher ist es auch möglich die von Mobile Devices gängigen Master/Detail-Views zu implementieren. Genau für diese Mechanismen ist der Backbutton gedacht, der standardmäßig für jedes Template aktiviert werden kann. Die Implementierung der Funktionalität bei einem „go back“ liegt allerdings beim Entwickler.

Fazit

Zurzeit ist es für Java-Entwickler eher schwierig, sich dem Thema Echo Show zu nähren. Google und Stack Overflow geben weder Links zu Beispielen noch Dokumentationen. Außer den wenigen Informationen direkt von Amazon ist bisher nicht viel zu finden. Will man seine Zeit nicht mit der Analyse des Frameworks verbringen, ist man gezwungen zu warten, bis die Entwicklerszene oder Amazon weitere Informationen liefern. Hat sich einem die Erweiterung des Frameworks jedoch erschlossen, macht die Entwicklung von Skills für Echo Show einen stimmigen und durchdachten Eindruck.

Negativ aufgefallen sind eher Kleinigkeiten. So funktioniert das Preloading von Bildern in Content Lists eher schlecht als recht. Es ist nicht sehr schön anzusehen, dass Bilder von Listenelementen erst peu à peu erscheinen. Hier muss man bei der Konzeption von Skills zukünftig also auch auf die Zugriffszeit von Content Servern achten oder darauf hoffen, dass Amazon entsprechende Mechanismen verbessert. Generell bleibt abzuwarten, was sich Amazon an Erweiterungen einfallen lassen wird.

Was Entwickler zukünftig aus der Kombination von Voice Interfaces und Touch Screens herausholen werden ist sehr interessant. Eine enge Zusammenarbeit zwischen Konzeption, Kreation und Entwicklung scheint hier unerlässlich zu sein. Insgesamt wird Amazon Echo Show sicherlich wieder große Veränderungen in den Markt bringen.

Der Artikel wurde auf Entwickler.de veröffentlicht.

Connected Retail for real

Ein Supermarkt ohne Schlange stehen. Artikel nicht auf das Kassenband legen müssen. Einfach rein in den Laden die gewünschten Artikel in die Einkaufstasche stecken und wieder raus? Diesen Traum von stressgeplagten Konsumenten auf der ganzen Welt hat Amazon mit Amazon Go Ende vergangenen Jahres wahr werden lassen. Einkaufen wie es wirklich sein sollte – einfach und unkompliziert.

Amazon könnte mit diesem Angebot tatsächlich einen Lösungsansatz für eine große Schwachstelle im stationären Einzelhandel entwickelt haben. Funktioniert das Konzept verlässlich, hat Amazon damit ein zukunftsträchtiges Szenario geschaffen, um eine tatsächliche Optimierung des Payment-Prozesses im stationären Handel zu erreichen. Aktuell gibt es jedoch noch viele Fragen zum Praxiseinsatz von Amazon Go. Beispielsweise existieren bisher keine Angaben darüber, wie zuverlässig die Erkennung der aus dem Regal genommenen Produkte funktioniert oder wie die Technik mit dem Zurücklegen von Produkten an einen willkürlichen Ort im Laden umgeht. Außerdem machen aktuelle Meldungen deutlich, dass die Tracking-Technologie noch mit Schwierigkeiten beim Praxiseinsatz zu kämpfen hat, was den Start von weiteren Stores auf unbestimmte Zeit verschiebt.

Das Beispiel zeigt damit deutlich, dass ganzheitliche Lösungsansätze für den stationären Einzelhandel nur durch komplexe Systeme möglich sind, die höchst individuell, smart und zielgerichtet, aber dennoch realisierbar geplant sein müssen. Selbst für einen Branchen-Riesen wie Amazon ist das kein Kinderspiel.

Je komplexer, desto schwieriger?

Die Customer Centricity spielt dabei die entscheidende Rolle. Denn nur wenn wir die Bedürfnisse und die Verhaltensweisen der Kunden wirklich verstehen und diese in den Mittelpunkt unserer strategischen Bemühungen stellen, können wir die Kontaktpunkte zum Kunden so aufbauen, dass sie ihm den dringend benötigten Mehrwert bieten, der ihm zur Kaufentscheidung und Händlern zur Umsatzgenerierung verhilft. Dies bedeutet allerdings, dass Anbieter ihre Kontaktmöglichkeiten zum Kunden kennen und vor allem steuern müssen.

Unterschiedliche Kontaktpunkte wie das stationäre Ladengeschäft, der Online Shop, die App und andere bedürfen dabei unterschiedlicher Herangehensweisen und technischer Konzepte, um Informationen auszugeben, zu sammeln und sinnvoll zu verknüpfen. Und damit das funktioniert, müssen selbstverständlich auch ausgeklügelte Schnittstellen, um diese miteinander zu verknüpfen, zur Verfügung stehen.

In den vergangenen Jahren haben viele Händler bereits Systeme aufgebaut, die ihre Online Shops, Apps und stationären Geschäfte mit Preisen, Kundendaten und Produktdaten versorgen. Obwohl diese Systeme, jedes für sich gesehen, ihren Zweck wunderbar erfüllen und stetig funktional sowie im Datenumfang gewachsen sind, bieten sie häufig keine einfachen, smarten Möglichkeiten, Daten sinnvoll zwischen ihnen zu verteilen. Jedoch kommt es genau darauf an.

Um mit relativ geringem infrastrukturellen Aufwand die ersten Schritte hin zu solch komplexen Szenarien zu gehen, eigenen sich sogenannte Middleware-Lösungen. Ihre Implementierung sorgt dafür, dass Altsysteme bestehen oder sukzessive erneuert werden können, ohne dass laufende Geschäftsprozesse beeinträchtigt werden. Sie erlauben außerdem, das bestehende System flexibel um weitere Kontaktpunkte zu erweitern und diese miteinander zu verknüpfen. Ohne eine übergreifende Strategie, wie Angebote und Inhalte über die verschiedenen Kontaktpunkte hinweg ausgespielt werden, bringt aber auch eine solche Lösung relativ wenig.

Woher nehmen, wenn nicht stehlen?

Zwar gibt es bereits Ansätze für solche übergreifende Strategien. Jedoch lohnt es sich in keinem Fall, diese einfach zu übernehmen und zu kopieren. Eine Strategie, die nicht individuell auf das Unternehmen sowie die Erwartungen der Kunden zugeschnitten ist, wird nicht funktionieren. Essentiell dafür ist es, eine Vision zu entwickeln die deutlich macht, was tatsächlich geschaffen werden soll. Darüber hinaus muss man sich im Klaren darüber sein, was technisch bereits umsetzbar ist, was (noch) nicht möglich ist und wie bestehende Varianten in angepasster Form für das eigene Unternehmen eingesetzt werden können.

Ohne Erfahrungen aus der Praxis sind solche Erkenntnisse allerdings nicht möglich. Stattdessen bedarf es einer experimentellen Herangehensweise durch protypische Umsetzungen oder MVP-Tests mit Kunden. Wie funktionieren Augmented Reality Ansätze, Location Based Services oder Sprachsteuerung? Wie kann man diese für das eigene Ladengeschäft nutzen? Und bieten sie den Kunden überhaupt einen Mehrwert? Fragen wie diese sollten dabei in einem solchen Praxistest ergründet werden. Kleine Workshops zum Testen und Verstehen unterschiedlichster technischer Systeme und Anwendungen, sowie daraus ableitbare Szenario-Ideen bilden die Grundlage für den strategischen Prozess an dessen Ende das eigene Connected-Retail-Konzept steht.

The time is now

Die technische Entwicklung hat bereits einen Punkt erreicht, in dem sinnvolle Retail-Szenarien realisiert werden können, die keine Unterscheidung zwischen Ladengeschäft und Online-Aktivitäten mehr kennen. Das zeigt nicht zuletzt das Beispiel Amazon Go. Was nun noch fehlt, sind konkrete Konzepte, wie man diese Technik und die verschiedenen Informationen, die sich im Laufe der Zeit über Produkte und Kundenpräferenzen an den verschiedenen Touchpoints angesammelt haben, vereint und im Sinne einer ganzheitlichen Strategie nutzt. Es ist höchste Zeit, auch die physischen Kontaktpunkte zum Kunden wieder aufzuwerten und zu einem besonderen Erlebnis zu machen. Wer sich hierzu noch keine Gedanken gemacht hat, sollte schnellstmöglich damit beginnen.

Dieser Artikel wurde auch auf lead-digital.de veröffentlicht.

Ist B2B-Commerce vielleicht die eigentliche Heimat des Amazon Dash Buttons?

Amazon stattet uns mit dem Dash Button als einziges Unternehmen mit einem funktionierenden, in den Alltag integrierten Produkt aus, das die Ideen des Pervasive Computing und des Internet of Things widerspiegelt. Und dennoch wird der drahtlose Bestellknopf, der vielen Menschen das Leben erleichtern soll, nicht mit Euphorie begrüßt, sondern mit überraschend viel Skepsis. Woher kommt diese Ablehnung?

Zweifelsohne: Der Dash Button ist ein First-Mover-Produkt. Daher ist es auch nicht verwunderlich, dass er – zumindest bei uns in Deutschland und zum jetzigen Zeitpunkt – von Vielen als „überflüssiger Quatsch“ bewertet wird. Hinzu kommt, dass Datenschützer vor dem Missbrauch der neuen Fähigkeiten und Verbraucherschützer vor Preis-Intransparenz bei der Bestellung warnen. Usability-Experten werfen die Frage auf, wie viele Dash Buttons im Haushalt wohl sinnvoll sind – und zugegeben: Wir selbst fragen uns doch auch, welchen tatsächlichen Nutzen der Bestellknopf für uns hat.

Kein guter Start – obwohl Amazon mit Sicherheit klar ist, dass der Button zum jetzigen Zeitpunkt kein Mainstream ist und nicht jeden Kunden anspricht. Doch auch in der Welt des Connected Commerce gilt weiterhin der Long-Tail-Effekt: Die Zielgruppe des Dash Buttons ist relativ betrachtet zwar (noch) klein, aber in ihrer absoluten Zahl groß genug, um ihn für Amazon zu einem erfolgreichen Modell zu machen. Und auch in der Umfrage des Stern befürworten denn auch zehn Prozent der Befragten den Dash Button deutlich und sagen: „Super, ich hasse Einkaufen im Supermarkt!“

Wäre B2B besser statt B2C gewesen?

Vielleicht wäre der Start des Dash Button aber auch viel besser im B2B-Sektor des E-Commerce gelungen? Stellen Sie sich einen Produktionsbetrieb vor: Im Bereich der Serienfertigung sind synchronisierte Supply-Chains, sowie Just-in-Time- und Just-in-Sequence-Prozesse bereits Realität. Abrufimpulse zwischen Herstellern und Lieferanten synchronisieren hier die Bestell- und Produktströme. Doch es gibt noch Vieles, das dort manuell abläuft – außerhalb der streng durchgetakteten Serienfertigung gibt es genug Produktionsstätten, die keine Großserien fertigen. Dort wird mit Maschinen und Werkzeugen gearbeitet, die in unregelmäßigen Abständen gewartet werden müssen. Auch das Wechseln oder Nachfüllen von Hilfs- und Betriebsstoffe erfolgt je nach Bedarf. In diesem Szenario könnte der Amazon Dash Button die innerbetriebliche Logistik optimieren. Angebracht an den jeweiligen Maschinen könnte er für unterschiedliche Materialien oder sogar Wartungsservices eingesetzt werden. Getätigte Bestellungen gehen an das eigene Lager oder via Anfrage an den Wartungs- und Instandhaltungsdienstleister. Der Buttons könnte innerbetriebliche Prozesse anstoßen und Kosten gleich den richtigen Kostenträgern zuordnen. Ausgestattet mit NFC- und einem Identifizierungscode ließe sich sogar der jeweilige Besteller zuordnen und damit sicherstellen, dass nur autorisierte Personen Materialbestellungen oder Service-Anfragen aufgeben.

Wenn wir uns von der Fertigungsbranche entfernen und an den Büroalltag denken, findet der Button auch hier einen sehr sinnvollen Platz: Ein Mitarbeiter, der die letzten Bleistifte oder Notizbücher aus dem Materiallager nimmt, könnte durch den Druck des Buttons am Regal direkt die Nachbestellung für diese Produkte auslösen. Getätigte Bestellungen könnten, wenn gewünscht, in einer wöchentlichen oder monatlichen Lieferung zusammengefasst werden und die Zustellung erfolgt zum gegebenen Zeitpunkt automatisch. Und es gibt sicher noch viele solcher Szenarien, in denen der Dash Button eine wirkliche Erleichterung darstellen könnte – auch ohne Sicherheitsbedenken.

Der Dash Button ist ein spannender erster Evolutionsschritt – aber ich bin davon überzeugt, dass er in seiner jetzigen Form die kommenden zwei Jahre nicht überstehen wird. Das war aber vielleicht auch gar nicht seine Aufgabe. Er ist eine neue Generation von Devices, die sich in den nächsten Jahren stark weiterentwickeln und neue Anwendungsfelder finden werden. Der Dash Button ist ein weiterer Schritt der Integration des Connected Commerce in den Alltag, um diesen zu verbessern und zu vereinfachen.

Vielleicht findet er ja eine wundervolle Heimat im B2B-Commerce?

Auch erschienen auf internetworld.de

Amazon Dash: Mehr als ein Knopf

Es könnte wirklich spektakulärer aussehen, dieses kleine Ding, das den FMCG-Markt revolutionieren soll. Stattdessen kommt der Dash Button eher unscheinbar daher: klein, leicht – optisch alles andere als aufregend. Als er am 1. April vorgestellt wurde, waren sich viele nicht sicher, ob es sich dabei um einen Aprilscherz handelt. Tatsächlich meint es Jeff Bezos aber sehr ernst.

Warum der deutsche Einzelhandel nun schleunigst aus seinem digitalen Winterschlaf erwachen sollte, wenn er Amazon nicht kampflos das Feld überlassen will, schreibt Thorben Fasching in seinem Kommentar für INTERNET WORLD Business.

Vergleichende Werbung: Wer mit wem ist entscheidend

Burger King macht es mit McDonalds, die Telekom mit Alice und im Zuge der vergangenen Bundestagswahl jeder mit jedem: Vergleichende Werbung boomt. Je nach Absicht des Werbenden auf assoziativer und/oder differenzierender Ebene. So versuchen zumeist neu in den Markt eintretende Wettbewerber oder Marken mit geringem Marktanteil, durch assoziative Vergleichswerbung auf die Gemeinsamkeiten mit dem Marktführer hinzuweisen – während sich Wettbewerber mit differenzierender Werbestrategie vielmehr von einem bestimmten oder mehreren Konkurrenten abzuheben versuchen. Häufig steht dahinter die Absicht, dem Betrachter aufzeigen zu wollen, dass das beworbene Produkt dem Konkurrenzprodukt in Preis und/oder Leistung voraus ist. Obgleich vergleichende Werbung immer häufiger eingesetzt wird, ist die Verunsicherung groß, ob dargestellte Konkurrenzmarken nicht ungewollt von der eigenen Werbung profitieren. In unserer Studie impact:navigator® konnten wir 2011 auf Basis neurowissenschaftlicher Ergebnisse bereits beweisen, dass Konkurrenzmarken beim Konsumenten durchaus stärkere Emotionen bewirken können als das eigentlich beworbene Produkt. Das muss allerdings – im Hinblick auf eine assoziative Werbestrategie – nicht per se von Nachteil für den Werbenden sein.

Im Zuge des aktuellen impact:navigators® 2013 wurde die neuronale (Werbe-)Wirkung eines TV-Spots von Amazon bei 200 Probanden getestet: Im Spot wird die Leistung des Kindle Fire HD von Amazon mit der Leistung des Apple iPads durch das abwechselnde Präsentieren der beiden Tablets verglichen. Der Vergleich im Spot kommt zu dem Schluss, dass der Kindle Fire dem iPad in seiner Leistung nicht nachsteht, der Preis jedoch sehr viel geringer ist. Auch die genaue Preisangabe (iPad 499 Euro vs. Kindle 269 Euro) wird am Ende des Spots direkt gegenübergestellt.

Zusätzlich zur neurowissenschaftlichen Studie wurde von uns die explizite Markenerinnerung mittels Reaktionszeittest abgefragt. Hier wurden den Probanden einzelne Markenlogos präsentiert. Ihre Aufgabe war es, sich so schnell wie möglich zu entscheiden, ob ein Spot dieser Marke im zuvor gesehenen Werbeblock ausgestrahlt wurde oder nicht. Die Ergebnisse zeigen, dass sich der Großteil der Studienteilnehmer darüber bewusst war, einen Spot von Amazon und nicht einen von Apple gesehen zu haben: 84 Prozent der Teilnehmer hatten sich richtig erinnert, einen Spot über den Kindle Fire von Amazon im vorangegangenen Werbeblock gesehen zu haben. Nur 16 Prozent lagen falsch und gaben an, den Spot nicht gesehen zu haben. Ähnlich dazu hatte sich der Großteil (66 Prozent) richtig erinnert, eben keinen Spot von Apple gesehen zu haben. Nur eine Minderheit (34 Prozent) hatte sich falsch erinnert und dachte, dass Apple der Absender des Spots gewesen sei (vgl. Abbildung 1).

vergleichende-werbung_grafik1

Abbildung 1: Anzahl der Teilnehmer die die Spots von Amazon Kindle bzw. Apple iPad gesehenen und nicht gesehenen haben.

Je schneller die Teilnehmer im Rahmen des Reaktionszeittests in der Lage waren, die richtige Entscheidung zu treffen – also eine nicht beworbene Marke auch nicht gesehen zu haben bzw. eine beworbene Marke gesehen zu haben – desto besser wurde die Marke erinnert. Interessant ist dabei die Betrachtung, wie schnell das Apple-Logo im Vergleich zum Amazon-Logo angenommen beziehungsweise abgelehnt wurde: Da kein Spot der Marke Apple im Werbeblock gezeigt wurde, sollten die Teilnehmer schneller richtig entscheiden können, keinen Spot von Apple gesehen zu haben. Im Umkehrschluss sollten sie für die falsche Entscheidung, einen Spot von Apple gesehen zu haben, länger brauchen. Das Amazon- bzw. Kindle Logo hingegen sollte schneller als „gesehen“ und langsamer als „nicht gesehen“ identifiziert werden. Und hypothesengetreu zeigte sich auch genau dieses Antwortschema in den explizit erhobenen Befragungswerten. Auch die Reaktionszeiten zeigen folglich, dass Kindle hinsichtlich der Markenerinnerung dem iPad überlegen ist – und das, obwohl das iPad im Spot fast genauso ausführlich beschrieben wird, wie der Kindle. Damit zeigen die Erinnerungswerte, dass der vergleichende Spot eine sehr gute Wirkung für den Kindle Fire erzielt hat ohne den Konkurrenten zu sehr zu stärken.

vergleichende-werbung_grafik2

Abbildung 2: Reaktionszeiten in Millisekunden, wie schnell sich die Teilnehmer entschieden haben, die Spots von Amazon Kindle oder Apple iPad gesehen bzw. nicht gesehen zu haben.

Betrachtet man darüber hinaus die impliziten, neurowissenschaftlichen Daten, dann wird deutlich, dass vergleichende Werbung durchaus auch das Konkurrenzprodukt positiv „pushen“ kann. Gerade die langfristige Erinnerung einer Marke, aber auch die Relevanz einer Markenbotschaft und deren emotionale Aufladung färbt mindestens im gleichen Maße auf das Konkurrenzprodukt ab. Im Falle einer assoziativen Markenstrategie ist dies jedoch ein durchaus gewünschter Effekt.
Wie also wirkt vergleichende Werbung im Gehirn der Konsumenten?

Die in der Studie angewandte neurowissenschaftliche Methode Steady State Topography (kurz: SST) stellt eine Erweiterung des klassischen EEGs dar und misst die Geschwindigkeit elektrischer Spannungsänderungen an der Schädeloberfläche der Studienteilnehmer in Mikrovolt. Von zentraler Bedeutung beim neurowissenschaftlichen Teil der Studie sind die SST-Parameter „Verankerung im Langzeitgedächtnis“ und „Persönliche Relevanz“. Denn nur Informationen, die ein Zuschauer als wichtig für sich selbst erachtet, haben die Chance, auch langfristig erinnert zu werden. Und vergangene Studien konnten wiederholt zeigen, dass vor allem die Verankerung einer Marke im Langzeitgedächtnis ein robuster Indikator für die spätere Produktpräferenz am Point of Sale ist.

Die millisekundengenaue Analyse des Spots mittels SST zeigt, dass während der Szenen, in denen nur das iPad zu sehen war, alle SST-Parameter deutlich über die magische Benchmark von 0,7 anstiegen und somit von einer sehr starken Verankerung im Langzeitgedächtnis, einer sehr hohen persönlichen Relevanz sowie einer sehr hohen emotionalen Intensität (vgl. Abbildung 3) des iPads bei den Studienteilnehmern gesprochen werden kann. Der gegenteilige Trend zeigte sich in den Szenen, in welchen der Kindle Fire zu sehen war: Alle drei Parameter sanken bei der Präsentation des Kindle Fire und stiegen erst wieder, als das iPad auf dem Bildschirm erschien (vgl. Abbildung 3). Besonders deutlich war der Peak aller drei Parameter zu Beginn des Spots.

Abbildung 3: millisekundengenaue neuronale Wirkung des Amazon Kindle HD Fire Spots.

Abbildung 3: millisekundengenaue neuronale Wirkung des Amazon Kindle HD Fire Spots.

Zusammenfassend konnten die impliziten neurowissenschaftlich erhobenen Ergebniswerte zeigen, dass sowohl „iPad“ als auch die Marke „Apple“ stark im Langzeitgedächtnis verankert wurden. Die Kreation hat sich also durchaus positiv auf das Apple iPad ausgewirkt. Im Falle einer assoziativen Markenstrategie hat sich der Spot jedoch auch für den Werbetreibenden Amazon gelohnt, da der Spot, der von den Teilnehmern eindeutig der Marke Amazon Kindle zugesprochen wird, insgesamt durchaus von der positiven Wirkung des iPads profitiert.
Bei differenzierenden Marketingstrategien sind vergleichende Werbespots jedoch mit Vorsicht zu genießen. Vor allem, da eine Überprüfung der Wirkung, die ausschließlich auf klassischen Befragungsdaten basiert, die Werbetreibenden leicht aufs Glatteis führen kann. Zum einen sind vor allem emotionale Bewertungen sehr anfällig für Verfälschungen, da einer expliziten emotionalen Bewertung immer eine Rationalisierung vorausgeht. Außerdem ist es für viele Konsumenten nahezu unmöglich, ihre Empfindungen gegenüber einem beworbenen Produkt oder einer Marke zu verbalisieren. Durch unsere innovative neurowissenschaftliche Herangehensweise umgehen wir diese Nachteile klassischer Marktforschungsmethoden, indem wir nicht nach einer Selbsteinschätzung fragen, sondern sie objektiv und wissenschaftlich unanzweifelbar durch die Aufzeichnung der Hirnströme messen.

Hintergrund zum impact:navigator®
Die Multi-Client Studie impact:navigator® ist eine multimodale neurowissenschaftliche Marktforschungsstudie zur Überprüfung / Untersuchung der Wirkung von TV-Inhalten (Programme, Trailer, Spots etc.), die von uns vierteljährlich durchgeführt wird. Neben klassischer Befragung und semi-impliziten Reaktionszeittests steht die neurowissenschaftliche Steady State Topography, die vor über zehn Jahren von dem renommierten Neurophysiologen Prof. Dr. Richard Silberstein entwickelt wurde, im Vordergrund.
Der nächste impact:navigator® findet im November zum Thema Kinder, Weihnachten & Spielwaren statt. Interessenten haben noch bis Anfang November die Chance, sich einen der begehrten Plätze in der Multi-Client Studie zu sichern.

Sprechen Sie uns einfach an: info@facit-mediaefficiency.com