Der folgende Beitrag ist ein Auszug aus einem Interview mit Marc Preusche, das wir im Rahmen der Arbeit an unserem Whitepaper zum Thema Datengetriebene Customer Experience Optimierung geführt haben. Marc ist Geschäftsführer von DEPT DATA & INTELLIGENCE (ehemals LEROI Consulting). Im Ausschnitt werden unter anderem aktuelle Trends und Strategien der CX-Optimierung wie Realtime Personalization oder Augmented Analytics thematisiert.
ODOSCOPE: Hallo Marc, Was ist denn essenziell notwendig, um Customer Experience überhaupt zu messen und anschließend auch optimieren zu können?
Marc Preusche (MP): Ich glaube, am Anfang ist es nicht wirklich etwas Technologisches, sondern etwas Kulturelles oder Organisatorisches. Es ist ein Verständnis innerhalb der Organisation. Es ist das Bewusstsein, dass Customer Experience nicht nur wichtig ist, sondern essenziell für den Firmenerfolg, den Unternehmenserfolg.
Sobald das erreicht ist, kann man so langsam damit anfangen, dem ganzen Vorhaben ein bisschen mehr Substanz zu geben. Ich denke, eine der ersten Aufgaben, die angegangen werden müssen, ist ein wenig „aufzuräumen“. Vergesst erst einmal den ganzen BI-Teil, vergesst Marketing Intelligence. Räumt bei den Standard-Tools auf: Räumt auf bei eurem Web Analytics, beim App Analytics, im CRM.
Dann passieren in diesen Bereichen zwei Dinge: Zum Einen eine ordentliche Datenqualität und zum Anderen – was aus organisatorischer Sicht viel wichtiger ist –, dass auch wahrgenommen wird, was eine ordentliche Datenqualität eigentlich ist. Das heißt, dass die Leute diese wirklich verstehen und damit arbeiten wollen. Und dann kommen zwei Dinge zusammen: Einerseits die Wahrnehmung: „Hey, wir haben gute Daten, damit können wir arbeiten!“, und andererseits das Kulturelle, von dem ich vorhin gesprochen habe.
Hierdurch wird das Ziel verfolgt, ein bisschen mehr mit der Customer Experience machen zu wollen. Obwohl „ein bisschen mehr“ nicht ausreicht, sondern vielmehr gefragt ist, sich als Unternehmen voll auf das Thema User Experience und Customer Experience zu konzentrieren. Diese beiden Aspekte zusammen bilden dann mehr oder weniger die Basis und auch den Katalysator, damit das ganze Vorhaben auch funktionieren kann.
Das ist eine sehr spannende Perspektive. Auch da momentan die Meinung herrscht, man bräuchte immer komplexe Tools und müsste hohe Beträge ausgeben, um dann erst vernünftig mit den Daten arbeiten zu können. Ist das so?
MP: Das kommt immer auf die Firma an. Einigen Unternehmen reicht ein einfaches Google Analytics, andere brauchen vielleicht auch die verschiedenen user-zentrierten Tools. Und dann gibt es einige, die wie bei ein paar finnischen Firmen ticken, mit denen zusammengearbeitet habe. Die habe ich gefragt: „Hey, wie sieht denn euer Analytics Set-Up aus?“ und dann haben sie mich ausgelacht und geantwortet „Wir haben einfach einen Tracker, das sind unsere Logfiles, die wir ein bisschen aufgebohrt haben. Bei uns kann jeder SQL, bei uns kann jeder Python. Wir brauchen das nicht.“
Das finde ich auch cool!
Sehr coole Anekdote! Wann ist denn die Realtime Optimierung, also die Optimierung in Echtzeit, sinnvoll im Vergleich zu einer BI Alternative? Also einer klassischen „Über-Nacht Berechnung“ - Die ist dann zwar nicht so schnell, aber dafür wird meist eine größere Datengrundlage geboten. Wo und wann ist also Realtime vs. Machine Learning bzw. Nicht-Realtime empfehlenswert?
MP: Meiner Meinung nach muss es immer, unabhängig davon, was man macht, eine Art Hybrid sein. Nimm etwa das Szenario, dass ein vollkommen neuer Nutzer, den du noch nie gesehen hast, in deine App reinschaut. Der hat sie sich direkt runtergeladen. Du weißt nicht, woher er kommt. Du hast keine App Analytics wie Adjust benutzt. Was machst du dann?
Dann hilft dir nur eine saubere Realtime Bearbeitung, um ein paar Informationen über den verwendeten Telefontypen und ähnliches aufzunehmen. Es ist also nicht unwichtig eine gewisse Komponente zu haben, die wie eine Realtime Optimierung funktioniert. Die soll dann trotzdem noch die nötigen Erkenntnisse über die User Präferenzen liefern. Oder auch darüber, wann du eine Pushnachricht ausspielen oder wann du welchen Onsite Banner einfügen solltest. Das ist schwierig zu sagen, wenn man nicht einen kompletten Use-Case hat.
In jedem Fall sollte man sich wirklich diesen Hybrid anschauen, der eher in die genannte Richtung geht. Den Großteil sollte man aber immer noch im Hintergrund durchführen, da es dann auch kontrollierbarer ist, zumindest am Anfang. Bevor du eine komplette Data-Driven Personalization machst, bist du immer auf eine Art Regelwerk angewiesen und nutzt meist keine Realtime Komponente.
Mit dem Lauf der Zeit kommt man jedoch zu einem Punkt, wo man sich überlegen kann: „Was kann ich überhaupt mit der Realtime Komponente machen? Welchen Mehrwert liefert das?“ Und sobald man da zu einem Entschluss gekommen ist und sich sagt, die Realtime Komponente hat marginalen Mehrwert gegenüber der Nicht-Realtime-Komponente, dann ist man an einem Punkt angekommen, an dem man sich den Hybrid einmal anschauen kann.
Mein Lieblingsbeispiel aus dem Bereich Realtime Personalization ist das Thema Recommendation Engine. Was man in dem Bereich alles in Realtime umsetzen kann, wenn man mehr Informationen man über den Nutzer hat… Stelle dir zum Beispiel vor: Du bist ein Shop für Angelzubehör. Da hat ein interessierter Besucher drei, vier Teile in den Warenkorb gelegt und dein System erkennt automatisch: „Die meisten Kunden kaufen dann auch das fünfte Teil.“ Du bietest ihm das Teil dann einfach noch zusätzlich an. Das ist eine ordentliche Variante, die Realtime Komponente am Anfang einzubauen. Technologisch gesehen wird es dann schon relativ schwierig und teuer. Das ist dann meistens echtes Big Data.
Das heißt, man kann schon absehen, dass das eher was für ganz Große ist und dass kleinen Firmen vielleicht die nötige Datengrundlage fehlt. Richtig?
MP: Ich glaube, es kommt auf das Tool an, was verwendet wird. Nehmen wir das Gartner Modell mit den Phasen deskriptiv diagnostisch, prädiktiv und präskriptiv, was mehr oder weniger Personalisierung ist. Viele denken, das seien einzelne Schritte, die nacheinander umgesetzt werden müssen. Stimmt aber nicht. Wenn du ein gutes Tool im Bereich Personalisierung hast, das die Menge schon out-of-the-box liefert, dann kannst du direkt in den präskriptiven Teil springen und dort eine gewisse Realtime Komponente verwenden.
Das Gartner Analytics Maturity Modell.
Und solche relativ einfachen Dinge wie eine Reco-Engine: Wenn die Reco-Engine sauber funktioniert ist das klasse. Das ist keine geniale komplett datengetriebene Realtime Berechnung, aber gewisse Realtime Komponenten schwingen mit, die noch spannend sein könnten. Da heißt es wieder: Es kommt auf das Tool an, das du verwendest.
Was sind aus deiner Sicht die vielversprechendsten Trends im Bereich der Customer Experience Optimierung?
MP: Besonders spannend finde ich den gesamten Bereich der Augmented Analytics. Ich meine Unterstützung, die nicht im plastischen Sinne der Analytics funktioniert - also Daten minimal vorbereiten, in eine schöne Verpackung bringen und dann als Tabelle oder als Chart jemandem übergeben. Das ist zwar cool, aber als Mensch muss man noch immer sehr viel mitdenken. Du brauchst noch immer ein gewisses Grundverständnis und speziell für viele kreativ Arbeitende ist das relativ schwierig umzusetzen. Oftmals funktioniert dieser Arbeitsbereich ganz anders.
Stelle dir vor, du gehst zu einem Data Scientist und sagst zu ihm, er solle bitte einmal kreativ sein. Das ist nicht seine Aufgabe. Im kreativen Bereich ist das dann vielleicht genauso, wenn ein Data Scientist plötzlich analytisches Grundverständnis verlangt. Das ist und braucht eine gut abgestimmte Arbeitsteilung.
Nur was wäre jetzt, wenn du ein kleines Unternehmen bist, dir keinen tollen Data Scientist leisten kannst, aber dafür eine Augmented Analytics Plattform hast? Diese liefert dir zwar gewisse Erkenntnisse, die mit einem guten Data Scientist vergleichbar sind, aber aus den Rohdaten wird keine komplexe Tabelle gemacht. Stattdessen werden wie beim Machine Learning aus der Tabelle schon gewisse Kenntnisse gezogen und dargestellt. Ich glaube, diese Möglichkeit wird einiges verändern.
Jeder hat Zugriff auf die Daten. Jeder kann damit arbeiten. Die Problematik dabei ist nur, dass eben nicht alle dafür gemacht sind, aus einer Analytics Plattform nützliche Informationen zu ziehen, wichtige Erkenntnisse zu interpretieren und damit ihre Arbeit zu optimieren. Das funktioniert eben nicht so einfach, wie man es sich vorstellt.
Augmented Analytics gibt diesen Teil wirklich komplett an die Maschine ab, zieht die wichtigsten Erkenntnisse aus den Daten heraus, mit denen man dann sehr gut die Performance des eigenen Unternehmens verbessern kann. Das Thema Augmented Analytics kann speziell für den Teil der arbeitenden Bevölkerung, der kein hartes analytisches Verständnis hat, ein enormer Boost sein.
Wenn man direkt zu den Ergebnissen springen kann, also quasi den guten Analysten, den Data Scientist damit automatisieren kann, dann erreicht man eine wesentlich bessere Skalierung des Ganzen. Wenn du zusätzlich noch herausfinden kannst, welche Empfehlungen und Erkenntnisse mit welchen Aktionen verbunden sind, dann hast du ein Gesamtverständnis von der Situation und von einer Lösung, die wesentlich besser ist.
Auch als Mensch lernst du wahrscheinlich wesentlich besser dabei. Das halte ich für sehr spannend, weil damit jegliche Systeme optimiert werden können. Mit dieser Strategie kann man zum Beispiel auch die Interaktion zwischen Mensch und Maschine beim Thema Personalisierung verbessern. Ich meine Strategien, bei welcher die Maschine dir mitteilt, welche Segmente in welchem Schritt wesentlich besser funktionieren als mögliche andere, wenn du Personalisierung testest.
Gründe dafür können dann gewisse Unterschiede zwischen den Clustern sein, wie bei der Clusteranalyse zum Beispiel, wobei das eine Cluster vielleicht eher emotional angesprochen werden will, das andere eher mit Features und ein weiteres nur vom Preis. Also ganz einfache Beispiele. Und wenn die Maschine dir das mitteilt und verrät, wieso die Aufteilung so ist, hast du schon einiges gewonnen.
Ja das stimmt! Könntest du bitte Beispiele für Augmented Analytics Anwendungen nennen?
MP: Es gibt so einige Dinge, die man mithilfe von Augmented Analytics machen kann. Ich glaube, was im gesamten CX-Bereich noch enormes Verbesserungspotenzial hat, ist, externe Faktoren mit einzubeziehen, wie zum Beispiel Fußballspiele, Festivals und das Wetter. Allein das Wetterbeispiel finde ich sehr spannend.
Da gibt es einige Stimmen, die behaupten, es sei doch mehrmals bewiesen worden, dass so etwas gar keinen Einfluss habe, aber das sehe ich ganz anders. Wenn du jetzt überlegst, dass dir eine Augmented Analytics Software im Prinzip eine genaue Wettervorhersage für ein bestimmtes Gebiet zu einem bestimmten Zeitpunkt geben kann, dann werden die Leute entweder sicherlich nicht ins Kino gehen oder erst recht ins Kino gehen, weil dort eine Klimaanlage ist.
Das kann man dann in verschiedene Segmente unterteilen und die unterschiedlichen Kampagnen dementsprechend anpassen. Dazu werden dann ein paar Creatives benötigt, die in diese Richtung gehen. Bei gutem Wetter in Frankfurt braucht man vielleicht Content mit viel Sonne, schwitzende Personen, den man schnell aus dem eigenen Archiv raussucht, bewertet und dann veröffentlicht. Aber in Leipzig ist ein Riesenunwetter – da willst du diese Kampagne natürlich nicht fahren. Mit Geosplitting kann man dann dort aber z.B. eine Unfallversicherung für Hagelschäden bewerben.
Guter Use Case für die Versicherungsbranche!
MP: Das sind dann situative Faktoren, die man wunderbar in den Augmented Analytics Kontext einbringen kann. Man kann versuchen, einen solchen Split zwischen verschiedenen Regionen basierend auf Wetter, Fußballspielen oder basierend auf Anlässen, welche die Menschen vor Ort einfach mitnehmen und mitreißen, zu generieren. Wenn man dann diese Insights, diese Unterschiede versteht, versteht man auch den Kontext, der stets relevant ist. Es geht überall um den Kontext – egal, ob bei KPIs oder bei Messungen. Außerdem wird der Kontext meist implizit mitgegeben, aber man ist sich dessen vielleicht gar nicht bewusst.
Die Conversion Rate steht etwa zwischen der Anzahl von Stammgästen und der Anzahl von Abverkäufen. Wenn eine der beiden steigt oder fällt, kann die Aussage der Prozentzahl ins Gegenteil verkehrt werden. Aber das sind ja genau die Dinge, die durch Augmented Analytics optimiert werden können, weil der schnelle bis hin zu experimentelle Aufbau eines Kontextes die Analyse enorm erleichtert. Als ganz banale Fortführung des Frankfurt/Leipzig-Beispiels: Was bringt es mir, wenn ich mich drei Tage an der Recherche für etwas aufhalte, was ich vorgestern hätte ausspielen können? Eine Maschine erledigt dir das innerhalb von 20 Sekunden – oder schneller.