Big Data im CRM

01.06.2015

< Zurück zur Übersicht

Durch die technischen Fortschritte, die das Thema Big Data vorangetrieben haben, eröffnen sich auch im Kundenbeziehungsmanagement neue Anwendungsmöglichkeiten. Erfahren Sie mehr über Big Data, den Nutzen, aber auch die Herausforderungen und wie das Trend-Thema bewertet werden sollte.

 

Big Data – neue Technologien bieten die Möglichkeit, Kunden auf Basis großer Datenmengen auf eine ganz neue Art kennen zu lernen – entscheidend dabei ist der richtige Anwendungsfall. Dem Thema Big Data wird in den letzten Jahren eine stetig wachsende Bedeutung zugemessen. Oft liest man von gestiegenen Datenmengen, vor allem durch das Web 2.0, bei dem der Nutzer eigene Inhalte erstellt und sich vernetzt. Doch bei Big Data geht es nicht nur um die Vielzahl und Größe von Daten, die zu verwerten sind. Auch die Form der Daten hat sich verändert. Während früher Unternehmensdaten vornehmlich strukturiert waren und in relationalen Datenbanken gespeichert wurden, bestehen mit Big Data auch neue Möglichkeiten, semi- und unstrukturierte Daten zu analysieren.

Generell sind die technischen Fortschritte ein großer Treiber von Big Data. So ist neben der Anzahl und Größe an Daten (Volume) und deren Vielfalt an Formen (Variety) auch entscheidend, dass Analysen schnell zur Verfügung stehen (Velocity). Diese drei Herausforderungen werden mit Hilfe der Big Data-Technologien gelöst. Aber all diese technischen Möglichkeiten bringen noch keinen direkten Nutzen. Erst durch geeignete Fragestellungen und Anwendungsfälle kann auch ein wirklicher Mehrwert (Value) durch Big Data erreicht werden. In diesem Artikel werden mögliche Fragestellungen aufgezeigt, um mit Hilfe von Big Data das Kundenbeziehungsmanagement zu optimieren. Gleichzeitig wird ein kurzer Einblick in die technologischen Prinzipien hinter Big Data gegeben.

Die Daten, die zur Verfügung stehen, bleiben oft ungenutzt und ein Mehrwert wird nicht daraus realisiert.

In den meisten Unternehmen ist man sich der Menge an vorhandenen Daten oft nicht bewusst. Aber aus jeder Interaktion mit dem Kunden kann auch ein analytischer Mehrwert entstehen. Denn der Kunde teilt mit jeder Kommunikation gleichzeitig auch Informationen über sich und sein Verhalten mit.

Zum Beispiel kontaktieren Kunden ein Callcenter, um sich über Produkte zu informieren, sich zu beschweren oder Fragen zu stellen. Diese Anrufe können viele wertvolle Informationen enthalten, etwa ob ihr Produktzuschnitt für die Kunden passend ist oder ob sich Kündigungen anbahnen, denen man vorbeugen kann. Der Call Center Agent ist aber mit der Informationsweitergabe oder der operativen Behandlung der Beschwerde beschäftigt und hat für analytische Fragestellungen keine Zeit. Daher ist es notwendig, die Gesprächsinhalte durch geeignete Technologien analytisch nutzbar zu machen. Beispielsweise durch die Analyse und Verschlagwortung legitimiert aufgezeichneter Gespräche.

Ein anderer häufig gewünschter Anwendungsfall ist die Analyse sozialer Netzwerke. Wenn bspw. die Möglichkeit besteht, „Likes“ und Kommentare zum eigenen Unternehmen oder den Produkten in den sozialen Netzwerken mit Kundendaten zu verbinden und diese ins CRM zu transportieren, um sie dort zu analysieren, dann versteht man die hohen Erwartungen, die in den letzten Jahren immer mehr in Big Data gesetzt werden.

Kritisch zu betrachten im Kontext der Analyse von Kundendaten sind vor allem die rechtlichen Rahmenbedingungen. Nicht unbegründet ist daher bereits vom „gläsernen Kunden“ die Rede. Denn hinter den Vorteilen, Erkenntnisse aus solchen Datenbergen über Kunden zu erhalten, stehen natürlich immer auch Themen wie Datenschutz und personelle Selbstbestimmung.

Bevor wir aber zu den Herausforderungen rund um Big Data kommen, werden zunächst die technischen Grundlagen skizziert, die die Realisierung der Anwendungsfälle ermöglichen. Betrachtet man dazu die drei vorher angesprochenen Herausforderungen, die Menge an Daten, die Vielfältigkeit der Daten und die Geschwindigkeit, in der die Daten analysiert werden müssen, so kann man genau drei Themengebiete entdecken, die in den letzten Jahren immer gefragter wurden. Um eine Menge an Daten zu verarbeiten, ist die Lösung mit der größten Relevanz das dezentralisierte Berechnen von parallel zu verarbeitenden Programmen. Google hat einen äußerst effektiven Algorithmus entwickelt, den MapReduce- Algorithmus. Dieser verarbeitet durch die Verteilung hoch parallelisierter Rechenoperationen große Datenmengen in kurzer Zeit. Dieser Ansatz wurde von Programmierern adaptiert und unter dem Projektnamen Hadoop als Open-Source- Code bereitgestellt.

Um der Herausforderung zu begegnen, dass neben strukturierten Daten nun auch semi- oder gar unstrukturierte Daten verarbeitet werden sollen, sind neben der klassischen zeilenorientierten Datenbank mehrere neue Speichermethoden entwickelt worden. Auch hier ist der Suchmaschinenanbieter, der mit der Indexierung des Internets natürlich viele Daten in allen Formen verarbeiten muss, Vorreiter gewesen und hat dafür ein eigenes Speichermodell entwickelt, die sogenannte „Big Table“. Dabei ist die Anzahl an Spalten pro Zeile nicht festgelegt, sondern wird datengetrieben pro Zeile individuell definiert.

Um die Geschwindigkeit zu erhöhen, in der komplexe Analyseaufgaben gelöst werden müssen, wird immer häufiger In-Memory-Technologie verwendet, bei der die Daten im viel schnelleren Arbeitsspeicher liegen und nicht auf Festplatten zwischengespeichert werden. Unterstützt wird diese Entwicklung durch die stetig sinkenden Preise für Arbeitsspeicher innerhalb der letzten Jahre.

Diese genannten Methoden und Technologien verwendet beispielsweise ein Kreditkartenhersteller und versucht so, diejenigen Kunden, die sich bald scheiden lassen werden anhand ihrer Transaktionen bestimmen zu können. So wurde analytisch aus einer sehr großen Masse an Kundentransaktionen ermittelt, dass diese Kunden plötzlich vermehrt Einrichtungsgegenstände, wie Möbel, Handtücher und Bettwäsche kaufen sowie vermehrt auf Diätprodukte setzen und mehr Alkohol trinken.

Ziel eines Automobilherstellers wiederum ist es, Werkstattaufenthalt zu verkürzen und die Effizienz der Werkstatt zu erhöhen, indem das Auto die Fehler schon an die Werkstatt übermittelt, sobald sie auftreten und nicht erst, wenn das Auto in der Werkstatt ist. Dazu werden bis zu 75 Steuergeräte in ein Fahrzeug verbaut, welche Datenmengen bis zu 15 Gigabyte produzieren.

Können nun mit diesen Technologien, die oben beschriebenen Anwendungszwecke problemlos realisiert werden?

Was immer häufiger sichtbar wird, ist eine Lücke zwischen Theorie und Praxis, wenn es um die Realisierung von Anwendungsszenarien geht, vor allem im Bereich CRM. Nicht nur der „gläserne Kunde“ wird durch das Gesetz geschützt, sondern auch die technische Verknüpfung von Facebook-Profilen mit den unternehmensinternen Daten stellt eine Herausforderung dar. Denn zum einen muss der Kunde dieser Verwendung seiner Daten zustimmen (was meist über Gewinnspiele, Aktionen oder Spiele versucht wird) und zum anderen muss der Facebook-Account mit dem richtigen Kunden zusammengeführt werden, was teils schwierig ist, da häufig nicht der richtige Namen angeben wird oder alternative E-Mail-Adressen genutzt werden.

Dies sind nur einige Gründe, die einen Einsatz von Big Data-Technologien vor mehrere Herausforderungen stellt, die aber durchaus lösbar sind. Zunächst ist es notwendig entsprechende Anwendungsfälle zu finden, die den Einsatz von Big Data-Technologien erfordern und insbesondere deren Mehrwert der Investition in Big Data gegenüberzustellen.

Weiterhin ist es erforderlich, nicht nur viele Daten analysieren zu wollen, sondern auch inhaltlich und qualitativ geeignete Daten zu verwenden, die sich über unterschiedliche Quellen hinweg verknüpfen lassen. Daher startet ein Big Data Projekt nicht erst mit der Einführung von neuen Technologien sondern bereits bei der Definition von Anwendungsfällen, der Berechnung von Business Cases und der
Analyse, welche Daten vorhanden sind bzw. benötigt werden. Liegt eine geeignete Datenbasis vor, kann ein Proof of Value bereits mit traditionellen Business Intelligence Werkzeugen durchgeführt werden, die heute schon bereits größere Datenmengen immer schneller verarbeiten können. Insbesondere Tools zur visuellen ad-hoc Analyse eigenen sich dabei zur Überprüfung von Hypothesen von Anwendungsfällen oder zeigen Potentiale einer Realisierung auf. Möglicherweise kann auch die Visuelle Analyse Auffälligkeiten zu Tage fördern, die sich für weitere Anwendungsfälle nutzen lassen.

So muss man festhalten, dass sehr viele Themen, fachlicher und technischer Art, unter dem Begriff Big Data subsummiert werden können. Nahezu alles bringt interessante Anwendungsfälle mit, deren Mehrwert den Investitionen in Big Data Technologien gegenüberzustellen und abzuwägen ist. In einigen Fällen kann das Ergebnis sein, dass mit der Vorstufe über existierende Technologien bereits ein erster Mehrwert generiert werden kann und dedizierte Big Data Methoden anschließend viel zielgerichteter eingesetzt werden können. Wurden Big Data Technologien bereits in einem Unternehmen einmal eingeführt oder halten durch die stetige Weiterentwicklung existierender Werkzeuge langsam Einzug, so kann auch mit Anwendungsfällen experimentiert werden und es können so vielleicht ungeahnte Chancen realisiert werden. Voraussetzung für den Einsatz von Big Data Technologien bleibt jedoch immer ein nachhaltiges und fundiertes Informationsmanagement, denn die Qualität der Quelldaten entscheidet über die Qualität der Ergebnisse, auch bei Big Data.

 

Laden Sie sich hier den Artikel herunter und erfahren Sie mehr über Big Data, den Nutzen, aber auch die Herausforderungen und wie das Trend-Thema bewertet werden sollte.

PDF jetzt herunterladen
CINTELLIC Consulting - Social Media