Hinweis:
Dieser Blogartikel ist älter als 5 Jahre – die genannten Inhalte sind eventuell überholt.
„Data-rich companies are not an economic threat, but rather are an important source of innovation.“
Sowohl in den USA als auch in Europa gibt es Überlegungen, Unternehmen stärker zu regulieren, die Daten als Grundlage ihrer Geschäftsmodelle sehen. Es gibt also offensichtlich einige Firmen, die besonders gut verstanden haben, wie man Daten monetarisieren kann. Es gibt aber auch sehr viele Firmen, die es versuchen und weniger erfolgreich sind. Daher haben wir nach den Gemeinsamkeiten erfolgreicher datenzentrischer Geschäftsmodelle gesucht und 5 zentrale Erfolgsfaktoren gefunden.
Datenprodukte: Worum geht es?
In meinem Artikel zur Definition von Datenprodukten habe ich 3 Typen von Datenprodukten unterschieden: Data as a Service, Data-enhanced Products und Data as Insights. Wenn ich im Folgenden über die Erfolgsfaktoren von Datenprodukten spreche, dann gelten diese aus meiner Sicht für alle drei Typen in gleicher Form. Damit bilden die Erfolgsfaktoren auch gleichzeitig einen weiteren Baustein, warum Datenprodukte nicht mit der einfachen Nutzung von Daten gleichzusetzen sind. Die Interaktion von Menschen mit den Daten bildet einen wesentlichen Bestandteil von Datenprodukten – aber dazu später mehr.
„Die Natur hat uns nur einen Mund, aber zwei Ohren gegeben, was darauf hindeutet, dass wir weniger sprechen und mehr zuhören sollen.“
— Zenon von Kition
Veröffentlichungen rund um das Thema Erfolgsfaktoren
Wir sind nicht die Ersten und vermutlich nicht die Letzten, die versuchen, „des Pudels Kern“ der Digitalisierung zu verstehen. Damit klarer wird, welchen besonderen Aspekt ich zur Diskussion beitragen möchte, habe ich einige aktuelle Diskussionen zusammengefasst. Dabei kristallisieren sich ein paar grundlegende Erfolgsfaktoren für digitale Geschäftsmodelle und für Firmen insgesamt heraus, die sich digital transformieren wollen.
McKinsey – Next Generation Operating Model
Bei den Diskussionen rund um die digitale Transformation werden häufig Geschäftsmodelle, bei denen bestehende Prozesse in die digitale Welt überführt werden, mit Geschäftsmodellen vermischt, bei denen die Daten als solche im Vordergrund stehen. McKinsey hat in diesem Sinne vor kurzem eine Artikelserie zum „Next-generation operating model for the digital world“ veröffentlicht und darin auch einige Erfolgsfaktoren vorgestellt: (1) Digitization (also die Digitalisierung der Kundeninteraktion), (2) Advanced analytics (die Analyse von Daten, um Erkenntnisse zu gewinnen und Empfehlungen abzuleiten), (3) Intelligent Process Automation (IPA) (die Automatisierung von Standardprozessen, z. B. durch Bots), (4) Business Process Outsourcing (BPO) (damit man sich auf das Kerngeschäft konzentrieren kann), (5) Lean Process Redesign (nur Dinge tun, die einen Mehrwert haben).
Universität Siegen – Erlösmodelle für Datenprodukte
Auch aus wissenschaftlicher Sicht bleiben datenzentrische Geschäftsmodelle nicht unbeachtet. Laura Dorfer hat in ihrem Artikel zum Thema eine ganze Reihe unterschiedlicher Erlösmodelle für Datenprodukte erfasst und dokumentiert. Sie benennt zum Beispiel drei Dimensionen des Nutzenversprechens von Datenprodukten: (1) Informationsbeschaffung (Beispiel: Suchmaschinen), (2) Transaktionsunterstützung durch sozial generierte Informationen (Beispiel: Bewertungsplattformen) (3) Individuelle Interaktionen mit anderen Menschen (Beispiel: Communities). Weiterhin zeigt sich, dass viele Unternehmen als Mediator in einem zwei-/mehrseitigen Markt auftreten. In dem Artikel wird der Bereich aber nur definiert und es werden noch keine Handlungsempfehlungen abgeleitet.
Startups – Data Analytics Platforms
Ein wichtiger Indikator dafür, dass die Zeit der Datenprodukte gekommen ist, ist in meinen Augen die spezifische Aktivität von Startups in diesem Umfeld. Als Beispiele habe ich zwei Beiträge von Data Analytics Platforms as a Service ausgewählt, ohne an dieser Stelle die Qualität der Plattformen selbst beurteilen zu wollen. Exastax nennt die Komponenten (1) Determining your Objective (welches Kundenproblem löst das Datenprodukt), (2) Determining the Characteristics of your Data (es sollen neue Erkenntnisse gewonnen werden) (3) Creating a Collaborative and Automated Platform (die Verarbeitung der Daten sollte ohne manuelle Eingriffe erfolgen) , (4) Testing in Detail (wird erreicht, was erreicht werden sollte?) (5) Product Usability (gilt auch für Datenprodukte) (6) Getting the Most out of Subject Matter Experts (der Erfolg ist abhängig von vielen Personen mit unterschiedlichen Kenntnissen). Juiceanalytics hat hingegen das Lean-Start-Up-Vorgehen von Eric Ries für Datenprodukte angepasst.
Detecon International GmbH – Data-centric Business Models
Als letzte Quelle der Inspiration möchte ich noch auf einen meiner Beiträge aus dem Jahr 2011 hinweisen, der einige Erfolgsfaktoren identifiziert hat, die mir heute noch relevant erscheinen: (1) Use analytics to unleash value, (2) Specialize and select the real data treasure troves (Konzentration auf Datendomänen mit hohem Wertbeitrag), (3) Close the customer feedback loop (Feedback der Nutzer in das Produkt einbinden und sie damit zu Nutzern sowie zu Produzenten machen), (4) Ensure new, up-to-date content (auf die Frische der Daten achten), (5) Provide and own the identifiers (Wer den Primärschlüssel zu den Datenobjekten besitzt, bestimmt den Markt) und zum Schluss (6) Give highest attention to data privacy and security (Datensicherheit und Datenschutz sind sehr wichtig).
Sicherlich, einige der technischen Challenges von damals sind heute vielleicht einfacher zu lösen und der Unique Identifier verliert durch Linked Open Data möglicherweise an Relevanz. Aber nicht alles, was ein paar Jahre alt ist, muss notwendigerweise falsch sein …
Meine konsolidierte Liste: Worauf besonders zu achten ist
Auch wenn es sich bei den erwähnten Arbeiten nur um eine erste Auswahl von Beiträgen handelt, wird das breite Spektrum der Diskussion doch bereits erkennbar. Einige der erwähnten Aspekte wie z. B. Kundennähe (Customer Centricity) sind aus meiner Sicht nicht spezifisch für Datenprodukte. Andere, wie zum Beispiel Analytics, kommen immer wieder vor. Wenn ich die entstandene Liste an Herausforderungen mit meiner Erfahrung in Kundenprojekten zusammenbringe, fallen mir einige Aspekte auf, die besonders schwierig sind, in Unternehmen auf breiter Basis umzusetzen.
Daher sind für mich die folgenden 5 Erfolgsfaktoren essentiell:
1. Analytics
Wenn es um Daten geht, sollte man den Umgang mit ihnen beherrschen (Data Literacy). Es geht darum, in Daten Muster zu erkennen, Zusammenhänge aus ihnen zu extrahieren und Korrelationen von Kausalitäten zu trennen. Dabei hilft es, wenn man eine gewisse Demut für die mögliche Komplexität von Algorithmen aufbringt. Insbesondere dann, wenn man sehr viele Daten analysieren will. Es hilft zweitens, verschiedene Algorithmentypen zu kennen. Auch Deep Learning hilft in vielen Fällen, aber nicht in allen, wie der Erfolg von Libratus im Poker gezeigt hat.
Hierbei muss immer darauf geachtet werden, dass die Daten in einer gewissen Qualität vorhanden und verknüpfbar sind. Was in lokal begrenzten Szenarien auf dem Laptop eines Data Scientists vielleicht noch performant ausschauen mag, ist noch lange nicht in die Unternehmens-IT integriert – Data Science at Scale, also der Betrieb von Data-Science-Lösungen im Unternehmenskontext, ist hier das Stichwort. Ohne diesen Daten-Layer braucht man über die weiteren vier Erfolgsfaktoren gar nicht nachzudenken.
2. Community
Der Begriff der Community ist hier im Sinne einer Gruppe von Menschen gemeint, die sich für das Produkt begeistern, aber nicht zwingend auch Kunden sind. Foren sind ein gutes Beispiel. Wozu braucht ein Datenprodukt eine Community? Um zu lernen. Man kann den besten maschinellen Lernansatz implementieren – wenn man keine Trainingsdaten hat, kann die Maschine auch nichts lernen. Und wenn man den Menschen, die einem Algorithmus sagen, ob er falsch oder richtig liegt, nicht sehr viel Geld bezahlen will, braucht man eine Community. Eine Community baut man sich nicht schnell, sondern man muss sie über Jahre pflegen. Als Beispiel sei hier Amazon erwähnt, ein Unternehmen, das seit vielen Jahren Reviews seiner Produkte sammelt. Das korrespondierende Learning Experiment, um aus den Reviews relevante Sentiments zu lernen, die dann für andere Bereiche genutzt werden können, ist gerade veröffentlicht worden.
3. Marktmodellierung
Da die Distribution von Daten quasi nichts kostet, hat der Anbieter von Datenprodukten die Freiheit, seinen Markt selbst zu modellieren – beispielsweise indem er wertvolle Daten verschenkt, damit er sich durch noch wertvollere Informationen über die Nutzung dieser Daten „bezahlen“ lassen kann. Wie beim Erfolgsfaktor Community schon angedeutet, ist nicht jeder Nutzer des Datenprodukts gleichzeitig auch ein Käufer. Manche Nutzer bekommen nur deswegen Zugriff auf Produkte, damit sie es verbessern und am Ende jemand für das verbesserte Produkt – oder ein Derivat des Produkts – Geld bezahlt. Die Zusammenhänge zwischen den einzelnen Gruppen, Nutzern und Käufern muss man modellieren und gegebenenfalls über den Lebenszyklus hinweg verändern. Manchmal kostet ein Produkt z. B. in der Einführungsphase nichts, wird aber später kostenpflichtig (z. B. der Tesla Autopilot). Oder der Nutzer selbst zahlt nichts, aber das Aggregat ist sehr wertvoll (Foursquare API). Bei der Ausgestaltung dieser Modellierung hilft einem das Konzept der zweiseitigen Märkte aus der Volkswirtschaftslehre.
4. Agilität
Die Kundenanforderungen ändern sich – daran wird sich auch in Zukunft nichts ändern. Auf die geänderten Anforderungen muss man als Unternehmen schnell reagieren, wofür die Konzepte Scrum und Lean Startup passende Methoden anbieten. Durch A/B-Tests hat man die Möglichkeit, schnell zu lernen, welche Teilaspekte des Datenprodukts gut ankommen und welche weniger. Aber auch das direkte Kundenfeedback, wie es im Lean-Startup-Gedanken hervorgehoben wird, sollte man berücksichtigen. Nicht alle Datenprodukte, die auf den ersten Blick plausibel erscheinen, sind es auch.
5. Feedback-Schleife (Feedback Loop)
Wenn ich von den 5 Aspekten nur einen nennen dürfte: Es wäre die Feedback-Schleife. Damit ist jede Interaktion des Kunden mit dem Datenprodukt gemeint, die dazu genutzt werden kann, das Produkt weiter zu verbessern. Um das zu verdeutlichen, genügt ein Blick auf die Google-Suchergebnisse. Google hat einen Algorithmus, der auch ohne Nutzer tolle Ergebnisse auf die vorderen Ränge bringt. Einzigartig wird er aber durch die Integration der Nutzer-Interaktionen. Jeder Klick auf ein Suchergebnis ist wieder ein Feedback für das Ranking des Suchergebnisses. Dadurch kann dem nächsten Nutzer ein minimal besseres Suchergebnis angezeigt werden. Es geht nun darum, die richtigen Feedback-Schleifen in das Datenprodukt einzubauen und diese wieder für die Verbesserung des Produkts oder vielleicht auch eines anderen Produkts zu nutzen. Dies bietet auch die Möglichkeit, sich von der Konkurrenz abzugrenzen. Während die Stammdaten (im Falle von Google die Websites und Links) für alle theoretisch zugreifbar sind, sind es die Transaktionsdaten nicht (im Falle von Google die Klicks auf die Links).
Beispiel aus der Praxis – Erfolgsfaktoren am Beispiel am Anzeigenportals für Automobile
„Grau, teurer Freund, ist alle Theorie,/Und grün des Lebens goldner Baum.“ Wir konnten diese Erfolgsfaktoren in verschiedenen Projekten zum Einsatz bringen. Auf dem Meetup in Karlsruhe zu Deep Learning und Datenprodukten hatte ich daher bereits die Gelegenheit, näher darüber zu sprechen.
In dem Video erkläre ich detailliert, wie wir ein Datenprodukt für die Preisvorhersage von Gebrauchtwagen gebaut haben. Die Vorhersage basiert auf der Analyse von Preisen unterschiedlicher Gebrauchtwagen auf der Plattform. Die Community hilft dabei zu verstehen, zu welchem Preis der Wagen am Ende verkauft wurde. Als Marktplatz lässt sich das Geschäftsmodell als klassischer zweiseitiger Markt modellieren. Die Umsetzung neuer Datenprodukte und auch die Integration der Preisvorhersage erfolgt agil. Und natürlich hilft das Nutzungsverhalten dabei, die Preisvorhersage ständig zu verbessern.
Fazit
In diesem Artikel habe ich unsere Erfolgsfaktoren für die Implementierung von Datenprodukten näher beschrieben. Dabei habe ich besonders viel Wert auf die Interaktion mit der Community von Nutzern gelegt, die Trainingsdaten für die Machine-Learning-Algorithmen erzeugen. Dazu interessiert mich natürlich auch eure Meinung und ich freue mich auf eure Kommentare!
Wie schon im ersten Artikel zu dem Thema erwähnt, werde ich in loser Folge meine Perspektive auf Datenprodukte mit euch teilen und auch die damit verbundenen Datenschutz- und Copyright-Aspekte beleuchten. Ihr dürft auch gespannt sein auf die Zusammenfassung von Aaron Humms Thesis, in der er das klassische Produktmanagement mit dem Datenprodukt-Management verglichen hat.
2 Kommentare