Dynamische FlÀchensteuerung: der erfolgreiche Weg zur personalisierten Website

10.03.2023

< ZurĂŒck zur Übersicht

Dynamische FlÀchensteuerung in Echtzeit-Architekturen

Durch den immerwĂ€hrenden Wettbewerbsdruck im E-Commerce und Online-Handel entwickeln Plattformen, Online-Shops und Finanzdienstleister immer innovativere Lösungen, um Produkte und Content personalisiert und umsatzeffizient ausspielen zu können. Dabei etabliert sich immer mehr die dynamische FlĂ€chensteuerung. Diese erlaubt es, Kundinnen und Kunden von der ersten bis zur letzten Interaktion aus einer stets gleichen Datenquelle zu „bedienen“. So kann letztlich der Umsatz pro Kund:in als auch das eigene Image gesteigert werden. Die dynamische FlĂ€chensteuerung ermöglicht dabei auch eine „In-session“-Content-Anpassung: sollte eine bestimmte PrĂ€ferenz wĂ€hrend eines Webseitenbesuchs erkannt werden, gestaltet und individualisiert diese sich um. Wie dies funktioniert und was man beachten sollte, lesen Sie im nachfolgenden Fachbeitrag.

Dieser Artikel ist zuerst in der Fachzeitschrift BI Spektrum 01/2023 erschienen.

Gerade das Zusammenspiel aus analytischen Modellen, einer in Echtzeit verfĂŒgbaren Informationsquelle mit Anspruch an eine hohe DatenqualitĂ€t und die Anforderung, Ergebnisse in Sekundenbruchteilen berechnen zu mĂŒssen, stellt den Betrieb vor besondere Herausforderungen. Denn hierbei mĂŒssen MLOps1 und DevOps2 sehr eng und Hand in Hand arbeiten, um die Plattform weiterzuentwickeln und insbesondere um Fehler zu beheben, die unmittelbar Kundenimplikationen haben können. In diesem Artikel soll der Mehrwert einer Real-Time-Architektur am Beispiel der dynamischen FlĂ€chensteuerung vorgestellt werden. Weiter wird erlĂ€utert, wie die IT-Architektur dafĂŒr aussehen muss und wie insbesondere die Entwicklung und der Betrieb aller Beteiligten harmonieren muss, um am Ende einen erfolgreichen Use-Case anbieten zu können.

 

Dynamische FlÀchensteuerung

Die dynamische FlĂ€chensteuerung hat den Anspruch, die gesamte individuelle Customer Journey eines Kunden oder einer Kundin mit den jeweiligen persönlichen PrĂ€ferenzen und Vorlieben zu gestalten. Das bedeutet, dass die dynamische FlĂ€chensteuerung sowohl Onsite- als auch Offsite-Kampagnen steuert. Dazu werden die Onsite-Kampagnen mit KI-gestĂŒtzten Programmen und Anwendungen unterstĂŒtzt. So werden die verschiedenen Seiten einer Homepage (Landing Pages, Product Listing Pages, Product Detail Pages, Search Pages etc.) ĂŒber Algorithmen voll personalisiert. Zum Einsatz kommen unter anderem Ranking- Listen sowie auch Recommender Systems. Global kann ein Kunde oder eine Kundin auch ĂŒber eine Nutzersegmentierung einer speziellen PrĂ€ferenzklasse zugeordnet werden. Die individuellen BedĂŒrfnisse werden dabei jeweils analytisch ĂŒber KI-Algorithmen inter- und extrapoliert und in einen Single Point of Truth (DWH, Data Mart) gespeichert. Die dynamische FlĂ€chensteuerung dient dazu, jede einzelne Interaktion mit dem Kunden zu optimieren und so zu gestalten, dass sie zielfĂŒhrend voll automatisiert ablĂ€uft.

 

Personalisierte Webseite: Mehrwert der dynamischen FlĂ€chensteuerung fĂŒr das Unternehmen

E-Commerce-Plattformen nutzen das Marketingpotenzial ihrer Websites hĂ€ufig nicht ausreichend aus. Dies bedeutet eine schlechtere Positionierung am Markt und letztendlich weniger Umsatz und eine schlechtere Sichtbarkeit des Unternehmens fĂŒr Kund:innenLIT1. Im Folgenden wird eine Vorgehensweise skizziert, wie sich Unternehmen in dieser Hinsicht besser aufstellen können.
Das gelingt am besten ĂŒber eine Vereinigung der neusten Technologien mittels des Ansatzes der dynamischen FlĂ€chensteuerungLIT2. Dieser nutzt das volle Potenzial aus den Bereichen der KĂŒnstlichen Intelligenz sowie dem Cloud-Engineering. Ein idealer Webshop bietet seinen Kund:innen eine ganzheitliche Lade- und Ausspielungsstrecke an und individualisiert diese entlang der gesamten Customer Journey – sei es auf einer Plattform, einem Shop selbst (onsite) oder ĂŒber die verschiedenen MarketingkanĂ€le (offsite).

Dabei ist das SchlĂŒsselwort fĂŒr die dynamische FlĂ€chensteuerung die Personalisierung. Das heißt, dass die individualisierte Kundenansprache anhand von Daten zur Person, ihren Vorlieben oder Lifestyles erfolgt. Diese Daten können beispielsweise mittels historischer KĂ€ufe, Gesuche, Klicks auf der Website-OberflĂ€che oder ĂŒber ihr latentes Verhalten erfasst werden. Gleichzeitig werden genauso Informationen ĂŒber das „Realtime“-Shopverhalten von Kund:innen gewonnen. So werden Personen entlang einer gesamten Customer Journey passende Produkte und Dienstleistungen angeboten, vom ersten Kontakt bis hin zur BestellbestĂ€tigungsseite. Dies hat den Vorteil, dass der Umsatz maximiert wird, die Bekanntheit des Shops steigt und schlussendlich eine langfristige Kundenbindung entsteht.

Bei der Integration werden zwei Komponenten benötigt: ein schlĂŒssiges KI-Konzept sowie eine leistungsstarke IT-Infrastruktur. Ersteres berechnet das valide Kunden- und Nutzerverhalten sowie persönliche Priorisierungen. Dabei werden zur optimalen Gestaltung der individuellen Customer Journeys verschiedene statistische Modelle eingesetzt, die vor allem mit MLOps entwickelt und implementiert werden. SchlĂŒssige KI-Konzepte umfassen ein Zusammenspiel aus automatisierten Produktlistensortierungen, individuellen Recommendations, einer genauen Nutzersegmentierung sowie Prognosemodellen fĂŒr kommende Trends und externen Faktoren (unter anderem Wetterdaten). All diese Konzepte verfolgen das Ziel, die fĂŒr die Kundschaft interessantesten Produkte auf den sichtbarsten AngebotsflĂ€chen im Webshop anzuzeigen. Im besten Fall gelingt so ein 1:1-Transfer zum Kunden oder zur Kundin. Die Produktlistensortierung unterstĂŒtzt dabei den individuellen Aufbau eines Webshops, indem jedem Shop-User genau das ausgespielt wird, was von besonderem Interesse ist. Dies umfasst vor allem die Raster- und Suchergebnisseiten. Dabei muss man zwischen „bekannten“ und „unbekannten“ Nutzer:innen unterscheiden. FĂŒr Personen, die ĂŒber ein Cookie erkannt werden, kann eine viel stĂ€rker individualisierte Produktsortierabfolge generiert und angezeigt werden.

FĂŒr die nicht erkannten Personen unterstĂŒtzt eine Nutzer- oder Kundensegmentierung die Ausspielung von individualisierten Inhalten. Ein Algorithmus unterteilt ebendiese User in unterschiedliche, individualisierte Segmente, unter BerĂŒcksichtigung von latenten und ganz bewussten AffinitĂ€ten. So erkennt das KI-Modelle auch in Echtzeit, welche PrĂ€ferenz beispielsweise ein erst mal „unbekannter“ Shop-User aufweist. So kann ĂŒber eine vorab berechnete Produktsortierungsliste in Echtzeit genau der individualisierte Content angezeigt und ausgespielt werden.
Ferner werden individualisierte Recommendations im Shop eingesetzt, sei es auf Rasterseiten, aber vor allem auf Detailseiten. Hier generiert ein KI-Modell fĂŒr den/die Kund:in personalisierte KomplementĂ€r- oder Substitutionsprodukte. Wichtig dabei ist, dass all diese Modelle die Daten aus einer einheitlichen Quelle gewinnen. Dies ermöglicht erst die benötigte Stringenz der Content-Ausspielung entlang der gesamten Customer Journey. Ein User bekommt so vom ersten bis zum letzten Kontakt den passenden, individuell berechneten Content angezeigt, der sich auch wĂ€hrend einer Session auf die jeweilige persönliche PrĂ€ferenz Ă€ndern kann. Um diesen Datensupport sicherzustellen, wird ein leistungsstarkes Echtzeit-Framework benötigt.

1 Machine Learning Operations (MLOps) ist ein funktionsĂŒbergreifender und kooperativer Prozess der Unternehmen dabei hilft, das gesamte Potenzial eingesetzter Machine Learning Modelle auszuschöpfen.
2 Development IT Operations (DevOps) ist eine Sammlung unterschiedlicher technischer Methoden und eine Kultur zur Zusammenarbeit zwischen Softwareentwicklung und IT-Betrieb.

Notwendige Bestandteile einer Echtzeit-Infrastruktur

Die dynamische FlĂ€chensteuerung birgt aus technischer Sicht viele Herausforderungen. So muss die Person, die gerade auf der Website unterwegs ist, bestmöglich erkannt werden. ZusĂ€tzlich mĂŒssen die AktivitĂ€ten der aktuellen Sitzung mit den bisherigen VerlĂ€ufen und vortrainierten Ergebnissen zusammengebracht und darauf per ML-Algorithmus das Ergebnis der auszuspielenden FlĂ€chen berechnet werden, um es dann wiederum an die Website zurĂŒckzuspielen. Zu Beginn bedarf es einer Software, welche die Website-Stream-Daten verarbeiten und die Informationen in Richtung Datenbank und Realtime-Analytics-Software verteilen kann (beispielsweise Kafka oder dessen Alternativen). Um dann zum einen die verschiedenen KundenidentitĂ€ten, zum anderen aber auch alle Website-Events fĂŒr Analysen, die keine Echtzeit-Verarbeitung benötigen, zu speichern, wird eine Datenbank benötigt, die in der Lage ist, schreibende und lesende Abfragen in großer Anzahl gleichzeitig verarbeiten zu können. Bei einer großen Website mit vielen Nutzern kommen schnell mehrere tausend Requests pro Sekunde zusammen. Hier empfiehlt es sich, bei der Technologie- Auswahl auf Skalierbarkeit zu achten und gegebenenfalls einmal generierte Anfragen in erwarteter Menge zu vertesten.

KernstĂŒck der Architektur fĂŒr die Umsetzung der dynamischen FlĂ€chensteuerung ist aber das Realtime-ML-Framework. Es ĂŒbernimmt die Aufgabe, die Stream-Informationen der aktuellen Session aufzunehmen. Damit werden dann die Informationen bezĂŒglich der KundenidentitĂ€t wie Cookie, Kundennummer oder Ähnliches von der Datenbank abgefragt, um die vollstĂ€ndig verfĂŒgbare IdentitĂ€t zu komplettieren. Mit der KundenidentitĂ€t werden die vorberechneten Ergebnisse beziehungsweise PrĂ€ferenzen des Users wiederum aus der Datenbank geladen. Im Anschluss werden diese Daten zusammen mit der aktuellen Website-Journey in ein Modell eingegeben, um die am besten geeigneten FlĂ€chen zu ermitteln und diese dann wieder an die Streaming-Engine Richtung Website zu senden. Damit dies fĂŒr viele parallele Anfragen in „Echtzeit“ passieren kann, sodass die Experience des Website-Users nicht zum Beispiel durch Ladezeiten leidet, bedarf es einer parallelisierten und skalierbaren Softwarelösung. Zwei Open-Source- Frameworks stechen hier heraus und sind als kommerzielle Lösung bei den drei großen Cloud- Anbietern als IaaS-Lösung verfĂŒgbar, nĂ€mlich Apache Flink und Apache Spark. Apache Flink spielt hierbei seine Vorteile vor allem in großen Clustern aus und kann dort sehr schnell die Ergebnisse in Flink ML berechnen. Hier empfiehlt es sich aber, das Trainieren der Modelle außerhalb von Flink in einem ML-Framework durchzufĂŒhren, denn dafĂŒr ist Flink nicht konzipiert, da es sich sehr auf den Streaming-Part konzentriert.

Apache Spark kommt wiederum eher als Framework zum Berechnen großer, paralleler Anfragen daher und wurde erst spĂ€ter mittels Spark Streaming echtzeitfĂ€hig. Im Gegensatz zu Flink werden die Modelle nicht im Stream berechnet, sondern in einer Art Micro-Batch, das heißt mittels sehr vieler kleiner Batch-ProzesseLIT3. Somit kann Spark auch das Modelltraining ĂŒbernehmen, spielt aber bei sehr vielen Anfragen die Ergebnisse langsamer zurĂŒck als Apache Flink. Insgesamt ist die IT-Architektur keinesfalls trivial und einfach umzusetzen, da viele Komponenten ineinandergreifen mĂŒssen, um die richtigen Ergebnisse in sehr schneller Zeit zu berechnen. Genau dies muss in der Entwicklung sowie im Betrieb reibungslos funktionieren. Abbildung 1 gibt einen Überblick ĂŒber den vorgestellten Prozess. 

Prozess der dynamischen FlÀchensteuerung einer Webseite

 

Die wichtigen Schritte zur erfolgreichen Implementierung und Inbetriebnahme

Abgesehen von der Tatsache, dass die dynamische FlĂ€chensteuerung ein funktionierendes Framework und valide KI-Modelle benötigt, ist das Zusammenspiel zwischen MLOps und DevOps hier unerlĂ€sslich. Beide Prozesse arbeiten grĂ¶ĂŸtenteils hybrid, das heißt, beide erbringen Entwicklungsarbeit und Dienstleistungen mit dem gemeinsamen Ziel einer dauerhaften und reibungslosen Abfolge des Systemprozesses. MLOps entwickelt dabei ein produktives MLFramework mit dem Fokus auf Automatisierung und Parallelisierung des Modelltrainings, um die Robustheit und Skalierbarkeit sicherzustellen. Weiter werden die Pipelines standardisiert und systematisch protokolliert. Dieser Schritt ist wichtig, um eine stetige PrĂŒfung des Outputs der KI-Modelle zu gewĂ€hrleisten. DevOps stellt hierfĂŒr das notwendige GrundgerĂŒst bereit, indem die nötigen Container zum Betreiben von KI-Modellen zur VerfĂŒgung gestellt werden, um einen nahtlosen Aussteuerungsprozess zu ermöglichen. Mit diesem Schritt kann DevOps die Leistungsbedarfe optimal skalieren – auch bei hybriden Infrastrukturen (On Prem/Cloud).

Des Weiteren ĂŒberwacht DevOps die VerfĂŒgbarkeit und Leistung jeder einzelnen Anwendung mittels ausgearbeiteter Metriken auf verschiedenen Ebenen. Hier ist auch das Release Management verortet, indem definierte VersionsstĂ€nde ausgesteuert werden, auf die MLOps wieder zugreift. DarĂŒber hinaus erfolgt ein weiterer Code Quality Check durch DevOps. Schlussendlich bietet DevOps auch die Methoden zur Definition und Entwicklung des gesamten Testmanagements. Darunter fallen vor allem Unit-, API- und Performance-Tests. Diese werden gleichzeitig auch automatisiert und fortlaufend eingebunden. Durch dieses Zusammenspiel wird am Ende ein IT-Prozess generiert, der stetig und systematisch erfolgt. Durch diverse Tests wird gleichzeitig ein FrĂŒherkennungssystem implementiert, das den Prozess ĂŒberwacht und nachhaltig verbessert. Ohne das von DevOps bereitgestellte GrundgerĂŒst kann MLOps nicht sein volles Potenzial ausschöpfen, was die Wichtigkeit beider Komponenten im IT-Prozess herausstellt.

 

Fazit

Durch die Implementierung des Echtzeit-Frameworks gewÀhrleisten beide IT-Ressourcen einen reibungslosen Ablauf der dynamischen FlÀchensteuerung. Dabei haben wir gezeigt, dass DevOps und MLOps eine vollstÀndige Integration einer End-to-End-Anwendung entwickeln können. Gerade bei ambitionierten Use-Cases ist es unerlÀsslich, dass beide Komponenten stets partnerschaftlich zusammenarbeiten, um Fehler- und Ausfallraten möglichst gering zu halten. Trotz der Fokussierung auf ihre jeweiligen Kernthemen zeigt sich ein gutes Team vor allem bei der gemeinsamen Arbeit an den Schnittstellen. Das bedeutet, dass die KI-Modelle einerseits auf Genauigkeit und Akkuratesse (MLOps) und andererseits auf Funktion und Skalierbarkeit (DevOps) getestet werden.

Ganz gleich ob Sie kĂŒnftig Ihre Webseiteninhalte dynamisieren oder die Customer Journey Ihrer Kund:innen verbessern möchten: CINTELLIC ist spezialisiert auf Lösungen im digitalen Kundenmanagement und berĂ€t Sie zu Möglichkeiten zur Umsatzsteigerung, Ertragsverbesserung, Kostensenkung oder Effizienzsteigerung durch Prozessautomatisierungen. Vereinbaren Sie gleich einen GesprĂ€chstermin.

 

Literatur:

LIT1 Desai, D.: An empirical study of website personalization effect on users intention to revisit e-commerce website through cognitive and hedonic experience. Januar 2019, https://www.researchgate.net/ publication/327536274_An_Empirical_Study_of_Website_Personalization_Effect_on_Users_Intention_to_Revisit_Ecommerce_Website_Through_Cognitive_and_Hedonic_Experience_Proceedings_of_ICDMAI_2018_Volume_2, abgerufen am 4.11.2022
LIT2 IFH Köln: IFH-Studie zur Digitalisierung im Einzelhandel. onlinemarktplatz.de, 13.8.2022, https://www.onlinemarktplatz.de/213119/
ifh-studie-zur-digitalisierung-im-einzelhandel/, abgerufen am 4.11.2022
LIT3 Pointer, I.: Apache Flink: New Hadoop contender squares off against Spark. 7.5.2015, https://www.infoworld.com/article/2919602/
flink-hadoops-new-contender-for-mapreduce-spark.html, abgerufen am 4.11.2022

PDF jetzt herunterladen
Cintellic_Dynamische-Flaechensteuerung
CINTELLIC Consulting - Social Media