Trugschluss mit der Churn Rate

Erfolgreich sind Sie mit einem Abomodell, wenn Sie möglichst viele Kunden dazu zu bringen möglichst lange im Abo zu bleiben. Da scheint die Beobachtung der “Churn Rate” als gute Größe diesen Erfolg zu messen. Das ist aber ein Trugschluss.

Denken Sie zum Beispiel an das Szenario, dass Sie einen Service betreiben, der neue Abonnenten mit einer Probephase lockt, die anschließend in ein reguläres Abo übergeht. Abonnenten, die sich noch in der Probephase zu  Beginn ihrer Mitgliedschaft befinden, haben eine deutlich höhere Tendenz das Abo zu kündigen.  Das ist ganz normal. Auch bei anderen Business Modellen sind üblicherweise neue Kunden eher gefährdet verloren zu gehen.

Was passiert jedoch dann mit der Kennzahl der “Churn Rate”, wenn ihr Marketing sehr erfolgreich ist und es Ihnen gelingt viele neue Abonnenten zu gewinnen? Da sich dann viele “junge” Kunden im Kundenstamm befinden, die eine höhere Kündigungswahrscheinlichkeit haben, wird Ihre “Churn Rate” steigen. Wenn Sie diesen Anstieg als Misserfolg deuten, wiederspricht das der Realität der erfolgreichen Geschäftsentwicklung durch erfolgreiches Marketing.

Möchten Sie die “Churn Rate” möglichst gering halten, müssten Sie versuchen einen möglichst hohen Anteil an “alten” Kunden zu haben, da hier die Kündigungswahrscheinlichkeit gering ist. Das bedeutet aber auf der anderen Seite möglichst keine neuen Kunden zu werben. Das kann aber keine Strategie zum Geschäftserfolg sein. Also Vorsicht mit der “Churn Rate” als Kennzahl!

“Die Beobachtung der “Churn Rates” kann bei naiver Betrachtungsweise zu völlig falschen Schlüssen über Ihren Geschäftserfolg führen.”

Andreas Stöckl

HEAD OF CUSTOMER DATA MANAGEMENT

Die Churn Rate ist nicht konstant über die “customer lifetime”

Der Trugschluss in der Interpretation der “Churn Rate” liegt also in der Annahme, dass die Absprung-Wahrscheinlichkeit eines Kunden über die “customer lifetime” konstant ist. Dies entspricht jedoch nicht der Realität!

Wenn Sie den Geschäftserfolg korrekt messen möchten, müssen Sie versuchen die potentielle “customer lifetime” der Kunden und die Anzahl der Kunden zu messen. Dazu sind aber Annahmen und Berechnungen der Wahrscheinlichkeit der “customer lifetime” nötig. 

Fazit

Die mathematischen Details dazu können Sie unter
https://medium.com/swlh/youre-all-calculating-churn-rates-wrong-cbab072cd992 nachlesen. Wenn Ihnen die Beschäftigung mit mathematischen Inhalten jedoch keinen Spaß macht, können Sie sich gerne auch von uns beraten lassen.

Das Grundprinzip ist einfach

Der renommierte Informatiker und Turing Prize Gewinner Judea Pearl hat einmal mit dem etwas überspitzt formulierten Zitat:

“Machine Learning is just glorified ‘curve fitting’ ”

versucht auszudrücken, dass die Mechanismen hinter dem Bereich Machine Learning in der Künstlichen Intelligenz, von dem Deep Learning ein Teilbereich ist, sehr einfach sind, aber üblicherweise glorifiziert werden. Er unterstreicht damit, dass hinter den gängigen Techniken vieler Deep Learning Anwendungen – zum Beispiel bei der Bilderkennung oder Sprachverarbeitung – dieselben Prinzipien wie bei der einfachen Aufgabe, eine Kurve durch eine gegebene Menge von Datenpunkten zu legen, steckten. Schon an dieser sehr einfachen Karikatur von Machine Learning Lösungen lassen sich aber nicht nur deren Grundprinzipien erkennen, sondern auch typische Gefahren im Umgang mit dieser Technologie diskutieren und erkennen.

In meinem Artikel unter https://towardsdatascience.com/watching-machine-learning-models-fitting-a-curve-c594fec4bbdb habe ich versucht dies mit Hilfe von Bildern und Animationen zu verdeutlichen.

Gefahr der Überanpassung

Die wichtigste Gefahr, die auch hier versucht wird aufzuzeigen, ist das sogenannte “Overfitting”, das man am besten mit Überanpassung übersetzen würde. Hier sieht eine KI-Anwendung in den Daten, die zur Erstellung des Modells verwendet werden, mehr Muster und Strukturen, als eigentlich in den Daten enthalten sind.  Dadurch entstehen dann Systeme, die schlecht generalisieren, d.h. neue Situationen schlecht erklären und falsche Entscheidungen treffen.

Zu viele Muster zu sehen ist nicht nur eine Eigenschaft von KI-Systemen, sondern auch eine sehr menschliche Schwäche. Unser Wahrnehmungsapparat, der zum Beispiel darauf trainiert ist, Gesichter zu erkennen, gaukelt uns auch in vielen anderen Objekten vor ein Gesicht zu sehen. Das bekannteste Beispiel ist der  sogenannte “Mann im Mond” (https://de.wikipedia.org/wiki/Mann_im_Mond),  aber auch sonst gibt es viele solcher Beispiele – etwa in folgendem Bild, das uns im Hamburger ein Gesicht erkennen lässt.

Was grenzt Deep Learning von anderen Machine Learning Techniken ab?

Die beschriebenen Prinzipien und Gefahren gelten für Machine Learning im Allgemeinen, aber besonders für das Teilgebiet Deep Learning, da hier sehr umfangreiche Modelle eingesetzt werden, die zwar einerseits komplexere Aufgaben lösen können, aber auch mehr zur Überanpassung neigen. Das “Deep” im Namen leitet sich dabei von der Tiefe der Modelle in dem Sinne ab, dass die hier üblicherweise verwendeten Neuronalen Netze (https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz) aus vielen Schichten bestehen, also in diesem Sinne tief sind.

Fazit

Deep Learning ist zwar nicht erst in den letzten Jahren entstanden, aber durch die Erfolge, die auf dieser Technik basierende Anwendungen in den letzten Jahren erzielt haben, ist es in unseren Alltag eingedrungen – dies einerseits als Technologie, die beispielsweise unser Handy durch Gesichtserkennung entsperrt, aber auch als “Buzzword”, das zahlreiche Produkte, teils zu recht und teils zu unrecht, ziert.

Ein Beispiel

Ein typisches Beispiel, das zeigt, was möglich ist, ist ein Video einer Obama-Rede, die dieser nie wirklich gehalten hat.

Quelle: https://ars.electronica.art/center/de/obama-deep-fake/

Gerade wurde mit www.nuis.tv ein neuer Dienst angekündigt, der Newstexte automatisch mit KI-Unterstützung in Videobeiträge konvertiert. Dies soll dazu dienen, dass User auf einem Smartphone aktuelle Nachrichtenbeiträge nicht mehr lesen müssen, sondern sich diese von einem Nachrichtensprecher präsentieren lassen können.

Um derartiges umsetzen zu können, ist es nicht nur nötig Bilder von Personen künstlich zu erzeugen, sondern auch, diese die Nachrichten vorlesen zu lassen. Die dafür nötigen Technologien zur Verwandlung von Text in Sprache und Lippensynchronisation existieren bereits.

In diesem Blogbeitrag möchte ich zeigen, wie solche digitalen Inhalte erzeugt werden können. Dabei kommen neueste Arbeiten aus der Forschung der Künstlichen Intelligenz  zum Einsatz.

Schritt 1) Bild- oder Videomaterial auswählen oder künstlich erzeugen

Für diesen Schritt kann ein Foto oder Video einer Person ausgewählt oder auch künstlich geschaffen werden, die die Aussage tätigen soll. Die Website https://thispersondoesnotexist.com/ erzeugt Fotos von Personen, die nie existiert haben und vermutlich auch nie existieren werden.

(Fake Bild erzeugt mit StyleGAN2. Quelle: www.thispersondoesnotexist.com)

Die Methoden dahinter sind in einer wissenschaftlichen Arbeit (https://arxiv.org/abs/1912.04958) veröffentlicht, und in einem Video (https://www.youtube.com/watch?v=SWoravHhsUU) beschrieben.

Schritt 2) Text der Nachricht schreiben oder generieren lassen

Kommen wir nun zum Erzeugen von Textnachrichten. Die Website https://bellard.org/textsynth/ bietet eine Implementierung des “GPT2 Sprachmodells” von OpenAI (https://openai.com/blog/better-language-models/).  Dieses kann genutzt werden, um ausgehend von einem Stück Text diesen weiter fortzusetzen.

Ein Beispiel:

Der folgende Satz aus der New York Times wurde als Start vorgegeben.

“But despite the large drop in new infections since early this year, the U.S. death rate remains at nearly 1,500 people every day.”

Die Story wurde wie folgt fortgesetzt:

“The CDC estimates that 1.6 million Americans die annually from infections linked to SARS. The virus causes fever, respiratory illness, weakness and confusion. It can cause diarrhea, kidney and liver failure and is believed to have caused more than 300,000 deaths worldwide. The Ebola outbreak is the most severe since the devastating 1976 SARS outbreak that killed at least 15,000 people.”

Die Story liest sich wie ein echter Newsbeitrag, jedoch entsprechen die Fakten nicht der Realität. Dies zeigt, dass Fact-Checking Techniken  immer bedeutender werden. Nur weil etwas echt klingt, bedeutet das nicht, dass der Inhalt echt bzw. korrekt ist.

“Ich hab es mit eigenen Augen gesehen” kann in der heutigen digitalen Zeit kaum mehr als stichhaltiges Argument gelten.

Andreas Stöckl

HEAD OF CUSTOMER DATA MANAGEMENT

Schritt 3) Erzeugung der Audioaufnahme aus dem Text

Möchte man den Text nun von der Person gesprochen haben, benötigt man eine Tondatei mit der Rede – aber nicht nur mit irgendeiner Stimme gesprochen, sondern mit der Stimme der gewünschten Person. Dies leistet das  NVIDIA’s Flowtron Model (https://github.com/NVIDIA/flowtron). Es generiert gesprochene Texte, die kaum von echten zu unterscheiden sind. Hier kann die Stimme des Sprechers durch ein Muster vorgegeben werden.

Schritt 4) Erzeugung des lippensynchronen Videos

Mit Wav2Lip (https://github.com/Rudrabha/Wav2Lip) kann schließlich auch das Problem der Lippensynchronisation gelöst werden. Die Software generiert realistische, sprechende Gesichter für jede menschliche Sprach- und Gesichtsidentität.

Das Video https://www.youtube.com/watch?v=0fXaDCZNOJc zeigt die Resultate des Verfahrens.

Fazit

Kombiniert man nun all diese Technologien, so erhält man ein System, das nicht nur einen Text nach Vorgaben erfindet, sondern diesen auch von einer beliebigen Person (real oder erfunden) als Video aufsagen lässt. Das zeigt, dass man sich nicht mehr sicher sein kann, ob ein Video, das man auf Social Media gesehen hat und in dem eine Person eine Aussage tätigt, nicht vollständig erfunden ist.

Die Daten

Zur Analyse habe ich im Zeitraum von 4.11.2020 bis 2.2.2021 in Summe 148.991 in der österreichischen Presse online publizierte Artikel gesammelt und ausgewertet.

Es wurden Artikel folgender Medien berücksichtigt:

  • ORF – http://orf.at 
  • Tiroler Tageszeitung – http://tt.com 
  • Oberösterreichische Nachrichten – http://nachrichten.at 
  • Niederösterreichische Nachrichten – http://noen.at 
  • Vorarlberg Online – http://vol.at 
  • Österreich – http://oe24.at 
  • Salzburger Nachrichten – http://salzburg.com 
  • Kurier – http://kurier.at 
  • Die Presse – http://diepresse.com 
  • Kronen Zeitung – http://krone.at 
  • Der Standard – http://derstandard.at
  • Heute – http://heute.at 
  • Neues Volksblatt – https://volksblatt.at 
  • Wiener Zeitung – http://wienerzeitung.at

Das ergibt ein fast vollständiges Abbild der österreichischen Medienlandschaft bezüglich täglicher Nachrichten. (Daten der Kleinen Zeitung – http://kleinezeitung.at ) lagen mir leider nicht vor.)


Die Analyse

Von jedem Artikel wurde der Titel, der publizierte Text und der Publisher gemeinsam mit dem Veröffentlichungsdatum gespeichert. Die Anzahl der Artikel in meinem Datensatz verteilt sich folgendermaßen über die Publisher:

In den Beiträgen wurde nach bestimmten Schlagworten gesucht, die mit der Pandemie-Berichterstattung in Zusammenhang stehen. So zum Beispiel die Begriffe „COVID“, „Corona“, aber auch „Kurzarbeit“, „Lockdown“ und „Mutation“. Die Beiträge wurden auch einer computergestützten Sentiment-Analyse (https://de.wikipedia.org/wiki/Sentiment_Detection) unterzogen und vermerkt, ob es ein positiver, neutraler oder negativer Bericht war.

Zu welchem Prozentsatz kommen in den Artikeln die Wörter „Corona“ oder „COVID“ vor?

Betrachtet man den Anteil der Artikel mit mindestens einem der beiden Schlagwörter im Text, jeweils tageweise zusammengefasst und über die Zeitachse aufgetragen, ergibt sich folgendes Bild, wenn man über alle Medien hinweg zusammenfasst:

Im gesamten Zeitraum sind also ca. 30–40 % der Berichte zu diesem Thema. Das bestätigt den Eindruck, dass „nur noch“ über die Pandemie berichtet wird, zwar nicht wörtlich, es ist aber doch ein sehr großer Anteil – und das über den gesamten betrachteten Zeitraum von 3 Monaten fast konstant.


Wie sieht es mit Unterschieden bezüglich Medien aus?

Hier sind schon deutliche Unterschiede zu sehen, so liegt oe24.at fast bei 50 % und das Volksblatt sogar deutlich darüber, Krone und Kurier liegen nur auf 30 % oder darunter.

„Die Pandemie ist zwar nicht das einzige Thema in der Medienberichterstattung, aber mit einem Anteil von 30–40 % am gesamten Medienvolumen doch sehr dominant.“

Prof. (FH) Dr. Andreas Stöckl

HEAD OF CUSTOMER DATA MANAGEMENT

Wie sieht es mit der Präsenz des Themas „Mutationen“ aus?

Dazu betrachten wir die absolute Anzahl der Artikel mit dem Wort „Mutation“ im Text, über die Zeit aufgetragen.

Dieses Thema taucht schlagartig kurz vor Weihnachten in der Berichterstattung auf, nimmt dann für einige Zeit wieder deutlich ab. Ab Mitte Januar nimmt es wieder Fahrt auf – und begleitet uns seither. Betrachtet man die Nennungen in Regionalzeitungen getrennt, so ergibt sich ein differenzierteres Bild.

Zu Weihnachten ist das Thema in den westlichen Zeitungen Tiroler Tageszeitung und Salzburger Nachrichten schon sehr präsent. In Oberösterreich (Nachrichten.at) erst ab Mitte Januar. Hier zeigt sich also ein „West-Ost-Gefälle“.


Wie sieht es mit dem Thema „Lockdown“ aus?

Nachfolgende Abbildung zeigt die absolute Anzahl der Artikel, in denen das Wort „Lockdown“ vorkommt, aufgetrennt nach Quelle.

Es zeigt sich, dass am Tag des ersten Lockdowns auch ein klarer „Peak“ in der Berichterstattung zu sehen ist. Der Lockdown, beginnend nach den Weihnachtsfeiertagen, zeigt keinen deutlichen Ausschlag. Generell ist das Thema aber den ganzen Zeitraum mit einem gewissen Wochenzyklus über präsent. Einen starken Beitrag zu den Peaks liefert jeweils oe24.at (Gelb).


Wie sieht es mit der Tonalität („Sentiment“) der Artikel aus?

Im Themengebiet einer Pandemie erwartet man durchwegs eher negative Berichte. Sehen wir uns das Ganze in Zahlen an und fächern den zeitlichen Verlauf auch nach unterschiedlichen Begriffen auf.

Die Grafik gibt den zeitlichen Verlauf, der Anzahl der Artikel, welche die jeweils angegebenen Begriffe enthalten, aufgesplittet nach Tonalität an. Es fällt die verständlicherweise geringe Anzahl an positiven Artikeln zu diesen Themen auf. Insbesondere die Beiträge zu „Mutationen“ und „Lockdown“ haben überwiegend ein negatives Sentiment. Die beiden anderen Begriffe haben zumindest einen Anteil an neutralen Berichten in fast ähnlicher Höhe wie die negativen News.

Quellen: Bilder vom Autor selbst erstellt.

Fazit

Die Analyse drückt durch konkrete Zahlen das aus, was wir beim täglichen Konsum von Nachrichten empfinden, ein sehr erheblicher Teil beschäftigt sich mit der Pandemie – und das überwiegend mit negativer Tonalität. Wir konnten aber auch einige Unterschiede in den Quellen, Themengebieten und Zeiträumen sehen.

Die benötigten Daten sammeln

Um Aussagen über das Kaufverhalten eines Website-Besuchers tätigen zu können, benötigen wir möglichst aussagekräftige Daten über ihn. Wie soll das aber bei einem anonymen Surfer funktionieren?

Um Personen über mehrere Besuche hinweg identifizieren zu können, können diese mittels Cookie markiert werden. Das ist aber datenschutzkonform nur möglich, wenn das Einverständnis des Nutzers zum Beispiel mit einem Pop-up-Layer eingeholt wird. Um diese Abfrage und die Verwaltung der Einverständniserklärungen zu managen, bietet sich eine Consent-Management-Lösung an: https://de.wikipedia.org/wiki/Consent_Management_Platform. Hat man das Einverständnis, kann man das Verhalten der Personen auch über mehrere Besuche zu unterschiedlichen Zeitpunkten hinweg sammeln.

Um nun das Verhalten der Besucher analysieren zu können, kommt Web-Analytics-Software zum Einsatz, die genau aufzeichnet, welche Produkte angesehen wurden, welche Buttons angeklickt wurden, ob etwas in den Warenkorb gelegt wurde, und vieles mehr. Hier setzen viele Shop-Betreiber „Google Analytics“ ein, das umfangreiche Statistiken zum Surfverhalten anzeigt. Das Produkt in der Gratisversion hat aber einen entscheidenden Nachteil: Es werden zwar schöne Statistiken angezeigt, die zugrundeliegenden Rohdaten behält Google aber für sich. Für die Analysen benötigen wir diese aber!

Abseits der Google-Lösung gibt es aber eine Vielzahl von Softwarelösungen, die es ermöglichen, das Verhalten der Besucher aufzuzeichnen sowie gesammelt und strukturiert abzuspeichern. Mehr Information dazu finden Sie auf https://www.506.ai/leistungen/customer-data-management.

„Die korrekte Identifizierung potenzieller Online-Käufer auf Grundlage Ihres Verhaltens im Online-Shop kann helfen, die Streuverluste von Online-Werbekampagnen zu reduzieren!“

PROF. (FH) DR. ANDREAS STÖCKL

HEAD OF CUSTOMER DATA MANAGEMENT

Klassifikationsmodell erstellen

Es können nun verschiedene Methoden des maschinellen Lernens verwendet werden, um anhand der Daten des Online-Shops die Kunden als kaufende und nicht kaufende zu klassifizieren. Mit aus den Rohdaten aggregierten Merkmalen, wie z. B. Anzahl der Besuche, Anzahl der Seitenaufrufe, Anteil von Besuchen in bestimmten Produktkategorien etc., werden Prognosemodelle trainiert und evaluiert.

Es gibt verschiedene Verfahren, um dieses Problem zu lösen. Es hat sich in der Praxis gezeigt, dass es nicht „das eine“ Verfahren gibt, das besser als alle anderen ist, sondern dass es von der Problemstellung und den Daten abhängt, was am besten funktioniert. Man versucht daher stets verschiedene Ansätze und wählt dann nach einer Evaluierung jenen aus, der die besten Resultate liefert.

Die Details zu den möglichen Verfahren und der Umsetzung finden sich in meinem Beitrag auf:

https://towardsdatascience.com/classifying-online-shop-customers-65438e0cc58b

Die folgende Grafik zeigt eine Visualisierung eines erstellten Modells auf Basis von Besuchen und Seitenansichten. Die verschiedenfarbigen Flächen kennzeichnen dabei die Bereiche der Käufer und der Nichtkäufer. Kennt man von einem Besucher die Anzahl der Besuche und die Anzahl der Seitenansichten, dann kann man den zugehörigen Datenpunkt im Diagramm eintragen, und je nach Bereich wird er den potenziellen Käufern zugeordnet oder nicht. Dies ist ein sehr vereinfachtes Modell, das sich gut zur grafischen Darstellung eignet, in der Praxis werden mehr Merkmale zur Modellbildung verwendet.

Quelle: Vom Autor erstellt

Fazit

In meiner Praxis hat sich gezeigt, dass Klassifikationsgenauigkeiten von um die 80 % realistisch sind und zu durchaus brauchbaren Vorhersagen führen. Damit kann zum Beispiel eine Retargeting-Kampagne gestartet werden, die sich auf die Gruppe der potenziellen Käufer konzentriert und damit zu Kosteneinsparungen beim Online-Werbebudget führt.

Bild Quelle: (Quelle: www.pexels.com – kostenlose Nutzung [CC0])

Dabei handelt es sich nicht um geheime versteckte Botschaften, die in einzelnen Nachrichten eingebettet sind, so wie manche Personen geheime Botschaften in Songs der „Beatles“ zu finden glauben, sondern um Informationen, die erst dann ersichtlich sind, wenn man eine Vielzahl von Daten gemeinsam und richtig kombiniert betrachtet. In diesem Beitrag möchte ich das anhand einiger Beispiele aufzeigen.

Ich werde im Beitrag zum Beispiel Hinweise finden, dass Redakteure der Tageszeitung Der Standard am Wochenende gerne länger schlafen und längere Beiträge am Morgen oder am Wochenende vormittags schreiben. Den restlichen Tag scheinen Agenturmeldungen zu dominieren.

Vor allem die Kronen Zeitung, aber auch das Portal „oe24.at“ publizieren, nicht unerwartet, kaum längere Artikel – dass es hier im Unterschied zu Der Standard um das Zehnfache geht, ist doch etwas überraschend.

Aus den Publikationen namentlich genannter Redakteure lassen sich Informationen gewinnen, wie ihr Urlaubsverhalten ist oder welchen anderen Redakteuren sie möglicherweise nahestehen.

Die Daten

Als Daten für die Beispiele habe ich die Nachrichtenartikel der Onlineausgabe von drei österreichischen Tageszeitungen ausgewählt:

Die beiden ersten sind dabei dem Boulevard zuzuordnen, Letztere wird als Qualitätszeitung bezeichnet.

Ich habe jeweils über einen Zeitraum von 3 Monaten (11. 8. 2020–9. 11. 2020) die Texte der Nachrichten, gemeinsam mit einigen Metadaten wie Veröffentlichungszeitpunkt, Autor etc., gesammelt. Das ergab ein Datenvolumen von:

Erster Überblick über die Daten

Um einen ersten Überblick über die Daten zu erhalten, betrachten wir die Anzahl an Artikeln, welche die unterschiedlichen Zeitungen an den einzelnen Tagen veröffentlicht haben.

Alle drei betrachteten Zeitungen weisen einen Wochenzyklus auf, der bei Der Standard am ausgeprägtesten ist, an den Wochenenden und Feiertagen wird deutlich weniger publiziert. Es werden im Schnitt etwas über 100 Artikel geschrieben. Auf „oe24.at“ seit Anfang Oktober deutlich mehr.

Wann werden Artikel geschrieben, und wie lang sind diese?

Betrachten wir nun die Tageszeit und den Wochentag, zu denen die Nachrichten veröffentlicht wurden. Die Größe der Punkte beschreibt dabei die Anzahl der Artikel. Der Farbcode gibt zusätzlich die durchschnittliche Textlänge (Anzahl der Worte) pro Zeitpunkt an. Blaue Kreise stehen für kurze Artikel, je dunkler der Rotton ist, desto länger sind die Artikel.

Publiziert wird überwiegend am Tag, und am Wochenende wird etwas später begonnen. Hier scheinen die Redakteure etwas länger schlafen zu wollen. Generell wird am Wochenende weniger veröffentlicht.

An der Einfärbung kann man sehen, dass sich die Redaktion von  Der Standard offenbar am Morgen jeden Tages und am Wochenende Zeit nimmt, lange Artikel zu schreiben, wie man das von einem „Qualitätsmedium“ erwartet.

Werden später am Tag hauptsächlich kurze Agenturmeldungen verbreitet?

Die nächste Abbildung zeigt ein etwas anderes Bild für die Redaktion von „Österreich – oe24.at“, hier gibt es nur eine geringe Anzahl längerer Artikel um 6 Uhr morgens, kurz vor Mitternacht und Freitagmittag.

Welche Arten von Artikeln sind dies?

Auch hier wird wochentags mehr publiziert.

Bei der Kronen Zeitung sind bezüglich der Artikellänge keine ausgeprägten Tendenzen zu sehen, die Publikationsmenge verteilt sich ab 6 Uhr morgens über den ganzen Tag. Längere Artikel werden hier praktisch nicht fabriziert. Eine Analyse der generellen Artikellänge in Zusammenhang mit Themen in den unterschiedlichen Zeitungen betrachten wir im nachfolgenden Beitrag.

Es ist auch wenig Unterschied zwischen Wochenende und normalen Wochentagen festzustellen.

Zu welchen Themen wird publiziert?

Ich möchte aber nicht nur wissen, wann und mit welcher Textlänge publiziert wird, sondern auch über welche Themen. Dazu habe ich die einzelnen Artikel einer automatischen Themenzuordnung unterzogen.

Die Analyse wurde mit der „News Intelligence Platform“ von „AYLIEN“ (https://aylien.com/) durchgeführt und als Kategorisierung „IAB“ (https://developers.mopub.com/publishers/ui/iab-category-blocking/) verwendet. Diese Kategorisierung wurde entwickelt, um Online-Werbeanzeigen die richtigen Inhalte zuordnen zu können.

In meinem Beispiel kamen nur die Hauptkategorien zum Einsatz.

Betrachten wir nun, wie viele Artikel in den wichtigsten Kategorien von den drei Nachrichtenproduzenten veröffentlicht wurden. Die Größe der Kreise spiegelt dabei die Gesamtzahl im betrachteten Zeitraum wider.

In allen drei Zeitungen ist „Law, Gov’t & Politics“ das klar dominierende Thema. Beim „Standard“ und „oe24.at“ gefolgt vom Bereich „Sport“. Überraschenderweise spielt dieser Bereich bei der „Krone“ keine so große Rolle. Dafür gibt es hier einen ausgeprägten Bereich „Home and Garden“.

Grafik von “DerStandard”

Nun sehen wir uns noch an, ob es Unterschiede gibt, wann die Artikel zu den verschiedenen Themen publiziert werden. Nachfolgende Grafik zeigt für Der Standard die Verteilung der Veröffentlichungen über die Zeit für die beiden häufigsten Kategorien „Politik“ und „Sport“.

Die Artikelanzahl für den Bereich Sport steigt am Morgen deutlich langsamer an als für Politik. Liegt das daran, dass über Sport morgens noch nicht zu viel zu berichten ist, oder daran, dass Sportredakteure gerne länger schlafen?

Die Daten für die Artikel von Krone und „oe24.at“ zeigen dasselbe Bild.

Ordnet man die einzelnen Artikel auch einer „Themenlandkarte“ zu, so ergibt sich ein Bild, wie sich die verschiedenen Artikel verteilen. Nachfolgende Grafik zeigt die Verteilung der Artikel und der wichtigsten Kategorien für Der Standard .

Nahe beieinander liegende Punkte stehen dabei für Artikel, die ähnlich sind, und die Farben geben die Themen wieder.

Für diese Abbildung wurde für den Titel jedes Artikels ein „Sentence Embedding“ (https://github.com/UKPLab/sentence-transformers) berechnet, das die Bedeutung des Titels kodiert. Mehr hierzu im Artikel:

https://medium.com/towards-artificial-intelligence/sentence-embeddings-with-sentence-transformers-library-7420fc6e3815

Anschließend wurde mit dem Verfahren „t-SNE“ ein dimensionsreduzierter 2D-Plot erzeugt. Mehr dazu im Artikel:

https://towardsdatascience.com/an-introduction-to-t-sne-with-python-example-5a3a293108d1

Wie sieht es mit der Länge der Artikel zu den Themen in den unterschiedlichen Medien aus?

Die durchschnittliche Textlänge bei der Kronen Zeitung unterscheidet sich von Thema zu Thema kaum und ist auch deutlich kürzer als bei Der Standard. Bei „oe24.at“ ist das Bild ähnlich mit der Ausnahme, dass die Artikel generell etwas länger sind und es für den Bereich „Automotive“ längere Beiträge gibt.

Die durchschnittliche Textlänge bei  Der Standard liegt beim Zehnfachen im Vergleich mit der  Kronen Zeitung. Da bestätigen die Daten das Vorurteil, dass Boulevardzeitungen kaum Text liefern. Der Standard weist auch signifikante Unterschiede in der Länge zwischen den Themengebieten auf. News-Beiträge sind zum Beispiel deutlich kürzer als der Rest.

Können wir etwas über einzelne Personen oder Redaktionsteile aussagen?

Manche Zeitungen kennzeichnen die Artikel mit den Namen der Redakteure oder mit Teilen der Redaktion. So lassen sich bei der Kronen Zeitung die Artikel den einzelnen Bundesländer-Redaktionen zuordnen – damit wird deutlich, wie aktiv die einzelnen Redaktionen sind.

Man sieht, dass über den gesamten betrachteten Zeitraum die Wiener Zentralredaktion am aktivsten ist und Bundesländer wie „Burgenland“ und „Vorarlberg“ nur wenig beitragen.

Wertet man Artikel aus, die den Namen des Autors aufweisen, so lassen sich personenbezogene Aussagen treffen. In der nachfolgenden Abbildung sind daher die Namen unkenntlich gemacht.

Der Auswertung können einige interessante Informationen entnommen werden, so erkennt man festangestellte Redakteure und freie Mitarbeiter leicht an der Anzahl ihrer Beiträge. Über den Farbcode können die Personen thematischen Bereichen zugeordnet werden, und Lücken in den Veröffentlichungen können auf Urlaube hindeuten. So können auch Indizien für gemeinsame Urlaube in der Redaktion aus solchen Grafiken gesammelt werden. Deuten diese auf eine nähere persönliche Beziehung der Personen hin?

Fazit

Fragestellungen und Informationen, wie die zuletzt genannten, deuten auf die Gefahr der Auswertungen hin. Dabei wurden ausschließlich öffentliche, frei verfügbare Daten verwendet. Die Brisanz entsteht erst durch die Aggregation und Verknüpfung vieler Daten zusammen mit der geeigneten Visualisierung. Der Mensch ist dann auf dieser Basis dank seiner großen Fähigkeiten zur Mustererkennung in der Lage, Schlüsse zu ziehen.

Ein Mitbewerber kann zum Beispiel die Themengebiete von Redakteuren identifizieren, um diese abzuwerben. Ein Vorgesetzter kann private Verbindungen von Mitarbeitern ausspähen – und vieles mehr …

Viele Unternehmen haben keine Möglichkeit einer ordentlichen Conversion- oder Erfolgsmessung auf der Website. Es gibt keinen Online Shop, und die einzigen wirklichen Conversions sind der direkte Anruf sowie das Absenden eines Mails. Die einzige “Conversion”, welche für die Firma relevant ist, ist der direkte Anruf des Endkunden im Betrieb. Bei Online Marketing Kampagnen ist es somit schwer, eine Erfolgsmessung in Form von Conversions gewährleisten zu können. Allgemeine KPIs wie Impressionen und Klicks scheinen die einzige Lösung zu sein. In so einem Fall gibt es jedoch die Möglichkeit des Telefon- oder Anruf-Trackings. Damit werden Anrufe über Telefon, welche von der jeweiligen Zielseite aus gemacht wurden, mitverfolgt und schlussendlich entsprechend ausgewertet. Für Google Ads gibt es hier direkte Google-Nummern, welche für die Erfolgsmessung eingesetzt werden können. Ein großer Nachteil ist jedoch, dass dies nur für bestimmte Länder zulässig ist: Österreich ist hier beispielsweise von den Google-Telefonnummern ausgenommen. Wir zeigen Ihnen aber einen effektiven Workaround, wie Sie dennoch Anrufe über Ihre Online-Kampagne tracken können.

Technische Umsetzung

Ohne sich in technischen Details zu verlieren, soll dieser Part einen kurzen Überblick darüber geben, wie die operative Einbindung eines Anruf-Trackings auf der Zielseite aussehen könnte. Zuerst sollte die ursprüngliche Telefonnummer durch eine trackbare Telefonnummer ersetzt werden: Hier gibt es viele unterschiedliche Anbieter, die ein Dashboard über Aufzeichnungen der Telefonate, wie eingegangene Telefonnummer, Dauer des Telefonats, Grund des Abbruchs usw. anbieten. Sobald die neue Nummer in der Zielseite eingebunden wurde, funktioniert sie als Weiterleitung auf die ursprüngliche Nummer, die Daten werden jedoch mitgetrackt und der Betreiber der Zielseite merkt keinen Unterschied.

Variable Telefonnummer

Richtig interessant wird das Telefonnummern-Tracking, sobald man unterschiedliche Kanäle miteinander vergleichen möchte – vorausgesetzt, man möchte am Ende einer Online-Kampagne wissen, welcher Social-Media-Kanal die meisten bzw. längsten Anrufe eingebracht hat. Dies kann mithilfe weniger Arbeitsstunden eines Web-Entwicklers sowie mit einem sogenannten variablen Feld eingerichtet werden. Die Telefonnummer muss also mit einer Variable hinterlegt werden, die sich anpasst, sobald sich die Campaign URL ändert. Hier entsteht also eine klassische Wenn-dann-Kette: Wenn in der Campaign-URL beispielsweise unter Source “facebook” vorkommt, wird die Endung -01 an die Telefonnummer automatisch angehängt. Sobald die URL “instagram” enthält, ändert sich die Endung der Telefonnummer auf der Zielseite auf beispielsweise -02. Die Änderungen der Telefonnummern-Endungen werden von vielen Anbietern gratis zur Aktivierung der Telefonnummer angeboten.

Einbindung in das Reporting

Das jeweilige Dashboard über die Anrufdaten lässt sich meist mühelos in ein Excel File downloaden, und dieses kann wiederum als Spreadsheet hochgeladen und beispielsweise in einem Data Studio-Bericht als Datenquelle eingebaut werden. So können die Daten über Anrufe ohne viel Zusatzaufwand in das Kampagnen-Reporting aufgenommen werden.

Fazit

Mithilfe eines Call-Trackings ist es endlich möglich, zu erfassen, wie viele Anrufe eine Kampagne generiert hat. Mittels Anruf-Conversions kann auch endlich die Frage beantwortet werden: “Welcher Kanal bringt die meisten Anrufe und führt demnach zu den meisten Abschlüssen?” Natürlich funktioniert die Einbindung auch zusätzlich zu allen anderen Conversions, die beispielsweise über den Google Tag Manager getrackt werden. Die gewonnenen Daten bringen wichtige Erkenntnisse zur Kampagnen-Performance und können zur Optimierung der Kampagne beziehungsweise für die Budgetverteilung von neuen Kampagnen herangezogen werden.

Wir empfehlen Ihnen den Einsatz von Tracking-Nummern mit Ihrem Rechtsbeistand zu klären und ggfls. in Ihre Datenschutzbestimmungen mit aufzunehmen.

Wir setzen Sie zum Beispiel dazu ein, eine Segmentierung der Kundendaten in einem Online Shop durchzuführen, oder eine Performance Marketing Kampagne zu optimieren.
Dazu ist üblicherweise der Einsatz einer Programmiersprache mit einer Vielzahl von Programmbibliotheken für die gewählte Sprache nötig. Sehr häufig werden hier heute “Python” oder “R” verwendet, und Bibliotheken wie “Scikit Learn” und “Tensorflow“.

Es geht aber auch anders!

Einen anderen Weg versucht die Plattform “BigML” zu gehen, indem sie ein User Interface bietet, das ermöglicht alle Schritte eines “Machine Learning” Projektes über Menüs zu steuern.

In Österreich wird das Produkt von “A1 digital” als Cloud-Lösung angeboten: https://machinelearning.a1.digital/

Der Workflow beginnt mit dem Import der Daten aus den unterschiedlichsten Quellen, und bietet auch einen schnellen Überblick über die Datentypen, Korrelationen und statistischen Verteilungen der Merkmale und Zielvariablen.

Nachdem Vorverarbeitungsschritte, wie die Behandlung von fehlenden Daten, durchgeführt wurden, und die Daten in Trainings- und Testdaten geteilt wurden, können mit den verschiedenen Modellklassen Modelle berechnet werden. Hier bietet “BigML” für “Supervised Learning” die gängigsten Verfahren für Regressions- und Klassifikationsaufgaben an, wie zum Beispiel Entscheidungsbäume oder “Random Forests”, lineare Regression oder “Logistic Regression” und Neuronale Netze.

„Die Plattform bietet eine Möglichkeit Machine Learning Modelle zu entwickeln ohne Programmcodes schreiben zu müssen. Gute Kenntnisse im Bereich Machine Learning ersetzt es jedoch nicht.“

ANDREAS STÖCKL

HEAD OF CUSTOMER DATA MANAGEMENT

Die gängigsten Verfahren können mit dem System durchgeführt werden

Auch diverse Methoden für “Unsupervised Learning”, wie zum Beispiel “Clusteranalyse”, Anomalie-Erkennung und Hauptkomponenten-Zerlegung befinden sich im “Werkzeugkasten” von BigML.

Mit den erstellten Modellen können dann Vorhersagen getätigt werden, und es kann die Qualität der Modelle mit Testdaten bestimmt werden. Hat man ein zufriedenstellendes Modell zusammengebaut, dann kann es in Form von Programmcodes für unterschiedliche Programmiersprachen heruntergeladen, und zum Beispiel in Software-Lösungen integriert werden.

Um auch mit wenig Vorwissen gut durch den Workflow zu kommen, ohne eine Vielzahl an Parametern einstellen zu müssen, werden an vielen Stellen in der Programmoberfläche “1-Click” Assistenten angeboten.

Fazit

Die Plattform bietet eine Vielzahl an Methoden, die sehr bequem und Zeitsparend eingesetzt werden können. Ohne entsprechend gutem Vorwissen im Bereich “Machine Learning”, wird man aber auch hier zu keinen guten Resultaten kommen. Einen großen Vorteil der Plattform sehe ich darin, dass man gut strukturiert durch den Prozess geführt wird, und viele Visualisierungen die Interaktion mit der Software und das Verständnis der Daten erleichtern.

Quelle: Eine kurze Einführung findet sich zum Beispiel unter: https://www.youtube.com/watch?v=w0jRGVwDHn4

Ein erster Ansatz ist auf Grund von gewissen Merkmalen Kundengruppen einfach fest zu legen, beispielsweise nach Region oder bisheriger Höhe der Einkäufe. Ein besserer und zukunftsträchtiger Ansatz ist, die Kundengruppen aus den Daten zu “lernen”. Dazu benötigt man eine möglichst umfassende Sammlung aller Daten, die von den Kunden vorliegen. Zur Umsetzung verwendet man eine “Customer Data Platform”, wie zum Beispiel unser Produkt.

Sammeln der richtigen Daten

Basis für Personalisierung ist, dass die Kunden und Besucher des Onlineshops in zusammengehörige Gruppen unterteilt werden. Die Daten für die Bestimmungen dieser Gruppen werden mit Softwarelösungen “gesammelt”, die für jeden Besucher aufzeichnen: welche Seiten er betrachtet hat, welche Buttons er geklickt hat, und was er gekauft hat. Diese Daten werden dann um demographische Merkmale ergänzt, und weitere Inhalte aus CRM und ERP Systemen hinzugefügt.

In einem Artikel im Magazin “Towards Data Science” habe ich unlängst beschrieben, wie so ein Verfahren implementiert wird, und an einem Beispiel gezeigt, welche Ergebnisse eine Analyse bei einem Online-Shop mit Millionen Kunden pro Monat erreicht.

Start mit einer “Explorativen Datenanalyse”

In einem ersten Schritt habe ich die Daten unter Verwendung von Visualisierungen näher erforscht, um einen Überblick und erste Erkenntnisse zu erlangen:

  • Wie viele Daten liegen in welchen Zeiträumen vor?
  • Wie verteilen sich die Daten bezüglich einzelner Merkmale?
  • Welche Zusammenhänge liegen vor?
  • etc.

So konnte nicht nur festgestellt werden, dass in der betrachteten “Case Study” überwiegend Elektronikprodukte betrachtet und gekauft wurden, sondern zum Beispiel auch welche Marken beliebt sind.

Berechnung der Segmente mit einem mathematischen Verfahren

Mit den Erkenntnissen aus der Erforschungsphase, wurden anschließend, nach einer geeigneten Vorverarbeitung der Daten, mit Hilfe des Vefahrens: “k-means Clustering”, die Segmentierung berechnet. Ein wesentlicher Schritt war dabei, die richtige Anzahl der Segmente zu bestimmen, die sich gut für die Beschreibung der Daten eignet.

Visualisierung der Ergebnisse

Um einen Eindruck von der Qualität des Clusterings zu bekommen, wurde eine Visualisierung mit dem Verfahren Distributed Stochastic Neighbor Embedding (“tSNE”) erstellt. Dies ist eine Technik zur Dimensionsreduktion von Daten und eignet sich besonders gut für die Visualisierung hochdimensionaler Datensätze. Ein Beispiel dieser Visualisierungen findet sich am Beginn des Artikels.

Charakterisierung der Segmente

Um eine Interpretation der Segmente zu ermöglichen, wurden grafische Darstellungen erstellt, die zum Beispiel für jedes Segment die Merkmale zum Kaufverhalten in den Produktkategorien als “Radar Chart” zeigen. Dies kann dabei helfen die Bedeutung der Segmente zu interpretieren. Zum Beispiel gibt es ein Segment das hohe Kaufanteile im Bereich “Kinder” und “Sport” hat, andere Segmente charakterisieren sich hingegen eher durch die Anzahl der Seitenansichten und Kaufsummen.

Wer sich näher mit der Umsetzung, oder den möglichen Ergebnissen anhand eines Beispiels, beschäftigen möchte, findet die Informationen dazu im Artikel im Online-Magazin “Towards Data Science”.

Online-Shop – das Allheilmittel?

Die Regierungsbeschlüsse zu Covid-19 vom 13. März 2020 zwingen alle Geschäfte, die nicht der Grundversorgung unterliegen, geschlossen zu bleiben. Dabei trifft es jene besonders hart, die den größten Teil ihres Umsatzes f2f erwirtschaften. Bei Unternehmen, mit angebundenen Online-Shop, führt die fehlende stationäre Beratung zu großen Schwierigkeiten in der Produkt-Kommunikation.

Ist ein Produkt erklärungsbedürftig oder individuell abgestimmt auf den Kunden, benötigt es oft zusätzliche Beratung vor Ort, auch wenn der Kauf digital abgewickelt wird. Beispiele für solche Produkte sind Fahrräder oder Ski. Dasselbe gilt auch, wenn die Auswahl des Produktsortiments den Kunden überfordern kann. Dadurch kann selbst bei vorhandenen Online-Shop die Conversion unter den Covid-19-Maßnahmen leiden.

Es geht nicht ohne Entscheidungshilfe

Hier kann Online-Beratung den entscheidenden Mehrwert für den Kunden bringen. Wie dies schnell und sauber umgesetzt werden kann, zeigen die drei nachfolgenden Konzepte von führenden Unternehmen auf ihrem Sektor. Dies führte zu einer Stärkung der Kundenbeziehung und hilft den Unternehmen besser durch diese Krise zu kommen.

1. Ikea Möbelvertrieb OHG

Unter der Headline “Kostenlose Online Expertenplanung” bietet der schwedische Möbelhändler seinen (potenziellen) Kunden weiterhin Beratung und Fachexpertise.

Planungsthemen, die bis jetzt von Fachpersonal vor Ort übernommen wurden, sind hier kategorisiert und durch klare Call-to-Actions dargestellt. Nach Auswahl des Themenbereiches erfolgt entweder eine Weiterleitung zu spezifischen Fragen oder die Auswahl eines Termins für ein persönliches Gespräch mit einem Berater via Telefon und Bildschirmübertragung.

» Hier geht’s zum Konzept

2. OBI Group Holding

Der Baumarkt setzt in Puncto Online-Beratung auf seine App “heyOBI”. Diese bietet kostenlose Beratung via Nachricht, Telefon oder Videotelefonie, wobei der Kunde eine für ihn passende Form der Beratung auswählen kann. Grundvoraussetzung ist ein OBI Kundenkonto, das in einigen wenigen Schritten erstellt werden kann.

Dadurch werden Persönlich identifizierende Informationen (PII) generiert, welche an das Thema Datenmangement andocken und für alle weiteren Marketingzwecke genutzt werden können. Die Downloads während Covid-19  spielen somit zusätzlich in das Leadmanagementkonzept von OBI ein.

» Hier geht’s zum Konzept

3. INTERSPORT Austria GmbH

Intersport schaffte den Wechsel von stationärer Beratung auf Online-Beratung mit der Integration eines Online-Formulars auf der bestehenden Website. Mithilfe dieses Formulars ist es möglich ein telefonisches Gespräch mit einem Berater aus seinem Lieblingsstandort  zu vereinbaren. Dabei stehen unterschiedliche Timeslots und Themenbereiche zur Verfügung. Die Besonderheit dieses Services ist die Möglichkeit einen direkten Verkaufsabschluss per Telefon zu tätigen.

» Hier geht’s zum Konzept

Automatisierung ist der Schlüssel

Die drei vorangegangenen Lösungen für digitale Beratung haben etwas gemeinsam – dahinter liegen automatisierte Prozesse.
Dabei wird der gesamte Workflow:

» Terminfindung durch dynamischen Kalender
» Vorabbefragung
» Benachrichtigung bspw. Terminerinnerung
» Nachfassen des Termins

vollautomatisch durchgeführt. Eine manuelle Kette über ein einfaches Formular würde theoretisch funktionieren, ist aber nicht userfreundlich, ein großer Aufwand für die Unternehmen und kann zu Problemen in der Abwicklung führen. Zusätzlich ist es wichtig die Daten, die dabei generiert werden, strukturiert zu erfassen um den Kunden darauf aufbauend den besten Service zu bieten.

So geht’s richtig!


Soft Facts
  • Information über den Gesprächspartner dem Mitarbeiter zur Verfügung stellen
  • Interne Guidlines und Gesprächsleitfaden für Berater definieren
  • Dokumentation des Beratungsgesprächs (im besten Fall direkt im Customer-Relationship-Management System)
  • Puffer-Zonen von mindestens 10 Minuten zwischen den Terminen  für den Mitarbeiter einplanen
  • Follow-Up nach der Online-Beratung an den Kunden senden
      1. Bestellbestätigung
      2. Kundenbindung – Vielen Dank für das Gespräch!
      3. Versand eines Rabattcodes, Back in stock Angeboten
Hard Facts
  • Website, App
  • Klar definierte CTAs
  • Integriertes Formular (PII)
  • Termin-Kalender Funktion (Advanced)
  • Geeignete Technologie passend zur Beratungsform
  • CRM-System mit Marketing-Automation (Advanced)

Gekommen um zu bleiben?

Welche Vorteile könnte eine Online-Beratung nach Ende der Maßnahmen bedeuten:

+   Ergänzend zu Retail-Stores, kann Online als Verkaufsfläche dienen

+   Möglichkeit der Erklärung von komplexen Produkten im Online-Handel

+   Wachsendes Know-how im Umgang mit Online-Videos bei Kunden und Mitarbeitern

+   Service on demand: zeitlich flexible Online-Beratung (Terminkalender)

+   Up- und Crossselling im persönlichen Gespräch möglich

  Fehlendes Einkaufserlebnis für den Kunden

  Testmöglichkeit des Produktes nicht gegeben (Produktqualität)

  Abgabe von persönlichen Daten als Barriere für den Kunden (Datensicherheit)

Und jetzt?

Mit dem 14. April 2020 dürfen per Erlass Geschäfte unter 400 qm wieder öffnen. Dies bedeutet kleine Einzelhandelsunternehmen werden langsam aus der Schockstarre wieder erwachen. Ein Zurückkehren zur Normalität ist allerdings noch nicht absehbar. Einige sprechen sogar von der neuen Normalität. Trends zeigen, dass durch Covid-19 die Entwicklung hin zum Online-Handel um ein vielfaches beschleunigt wurde. Dies bedeutet: Es ist wichtig sich auch langfristig diesen neuen Gegebenheiten anzupassen.

Webshops und die ersten Online-Auftritte kleiner Marken werden die Dinge sein, die uns aus dieser Krise erhalten bleiben.  Eine dieser Initiativen wurde durch die Plattform mein-handel.at bereits erfolgreich umgesetzt. Dabei wird Händlern die Möglichkeit geboten, schnell und einfach einen eigenen Online-Shop zu launchen.

Um dabei eine bestmögliche Customer Experience zu gewährleisten, haben wir unser Produktportfolio um die “506 Customer Service Plattform” kurz CSP erweitert. Damit liefern wir eine simple Automatisierungslösung, um mit Kunden Beratungsgespräche für erklärungsintensive Produkte per Videotelefonie durchführen zu können.

Über diesen Blog

Hallo, mein Name ist Christian und du siehst hier das Tutorial Template aus dem Wordpress Template Tutorial auf Lernen²

Kategorien

Archiv