Wenn Kunden mich im Zusammenhang mit Data and Analytics (DnA) auf Digitalisierung ansprechen, stehen meist technologische Fragestellungen im Vordergrund:
- „Müssen wir unsere existierende dispositive Systemlandschaft jetzt auf Hadoop-Cluster umstellen?“
- „Brauchen wir unser existierendes DWH überhaupt noch?“
- „Können wir künftig alle Auswertungen mittels In-Memory-Technologien ausführen und auf eine redundante Speicherung unserer Daten verzichten?“
Die vollmundigen Aussagen, mit denen Hersteller von Big-Data-Technologien ihre Produkte anpreisen, verfehlen ihre Wirkung offensichtlich nicht. Und es wäre doch wirklich großartig, wenn man „ein bisschen Geld in die Hand nehmen“ könnte und die vielen lästigen Probleme, mit denen man sich beim Sammeln, Bereinigen und Aggregieren von Daten seit Jahren (um nicht zu sagen Jahrzehnten) herumschlägt, mit einem Schlag beseitigen würde. Mein leicht ironischer Unterton hat es wahrscheinlich schon verraten: So sehr ich den Wunsch nachvollziehen kann, so wenig bin ich davon überzeugt, dass neue Speicher- oder Analysetechnologien allein die vielschichtigen Aufgabenstellungen lösen, mit denen Unternehmen bei der Bereitstellung und Nutzung von Daten zu Auswertungszwecken konfrontiert sind. Ganz im Gegenteil – sie verschärfen die Situation noch, weil durch die neuen Technologien zusätzlicher Entscheidungs- und Handlungsdruck aufgebaut wird.
Wie komme ich zu dieser Einschätzung? Schaue ich mir die „lästigen Probleme“ bei unseren Kunden etwas näher an, stelle ich regelmäßig fest, dass ihre Ursachen fachlicher oder organisatorischer Natur sind: Kennzahlen sind gar nicht oder nicht eindeutig definiert. In den Fachbereichen fühlt sich niemand für diese fachlichen Definitionen zuständig, von festgelegten und gelebten Verantwortlichkeiten für die Korrektheit von Dateninhalten ganz zu schweigen. Abteilungen wachen mit Argusaugen über ihre Datensilos. Mitarbeiter verbringen Tage damit, Datenextrakte nach Excel zu importieren und dort mit Hilfe von Makros oder einem undurchschaubaren Netz von Formeln und Verknüpfungen in Management-taugliche PowerPoint-Präsentationen zu überführen. Auch wenn es vermutlich kein Kunde gerne hört: Durch die Digitalisierung wird die Lösung dieser Probleme noch wichtiger. Und neue Technologien spielen für deren Lösung – wenn überhaupt – höchstens eine nachgelagerte Rolle. Es ist wie bei so vielen anderen Themen dieser Tage: Wir hoffen auf einfache Lösungen für komplexe Probleme und sind – oftmals wider besseres Wissen – gerne bereit, entsprechenden Lösungsversprechen Glauben zu schenken.
Noch in einer anderen Hinsicht sind die neuen Big-Data-Technologien ein Spiegelbild derzeitiger gesellschaftlicher Entwicklungen: Sie sorgen für Verunsicherung. Niemand kann heute seriös sagen, welche Technologien sich auf Sicht durchsetzen werden. Es gleicht dem Blick in die berühmte Glaskugel. Und die Gefahr von Fehlentscheidungen ist bekanntermaßen hoch, wenn man der Glaskugel vertraut. Hinzu kommt, dass gerade Technologie- und Architekturentscheidungen nicht mal eben wieder rückgängig gemacht werden können. Dennoch nehme ich in Kundensituationen wahr, dass sich ein Handlungsdruck wegen genau solcher Entscheidungen aufbaut, die einen langfristigen Zeithorizont haben und mit hohen Investitionen verbunden sind.
Menschen, die mich ein bisschen besser kennen, bezeichnen mich als kopfgesteuert und strukturiert. Und so ist es vielleicht nicht verwunderlich, dass mich zwei Fragen in diesem Zusammenhang beschäftigen: „Auf welcher Basis sollten Unternehmen solche Entscheidungen treffen?“ und „Müssen sie diese Entscheidungen wirklich kurzfristig treffen?“
Zur ersten Frage: In der Digitalisierung liegt für Data and Analytics meines Erachtens die Chance, (endlich) den Fokus verstärkt auf die Datenverwendung zu legen. Eine zentrale Fragestellung könnte also lauten: Wie können wir in unserem Unternehmen Daten so nutzen, dass eine möglichst hohe Wertschöpfung entsteht? Die Frage ist nicht neu. Allerdings zeigt meine Erfahrung, dass die wenigsten Unternehmen sie aktuell – auch ohne Blick auf die Digitalisierung – hinreichend beantworten können. Vielleicht liegt das unter anderem daran, dass nicht nur ich den Begriff Wertschöpfung sperrig finde und mich schwer tue, mir darunter etwas Konkretes und Greifbares vorzustellen. Die englische Sprache ist da oft prägnanter unterwegs. So findet man in der Data and Analytics Community immer häufiger den Begriff Data Monetization. Mit Daten Geld verdienen bzw. mit Hilfe von Daten Geld sparen – ja, das klingt schon besser. Und dass sich durch die Digitalisierung hier neue, bisher nicht gekannte Möglichkeiten ergeben, liegt auf der Hand. Denn für DnA bedeutet Digitalisierung kurz gesagt: mehr Daten, neuartige Datentypen und innovative Auswertungsfunktionalitäten sowie deren universelle Verfügbarkeit. Mehr Geld verdienen könnte man z. B. durch neue Produkte oder Services, die auf der Verwendung dieser Daten basieren. Geld sparen könnte man etwa durch die Automatisierung von Prozessen, in denen Daten zur Entscheidungsfindung genutzt werden.
Diese Potenziale sind für jedes Unternehmen unterschiedlich. Sie hängen von der jeweiligen Strategie, dem zugehörigen Geschäftsmodell und nicht zuletzt von den unternehmensspezifischen Rahmenbedingungen ab. Auf welche dieser Potenziale sich ein Unternehmen fokussieren will, ist eine geschäftspolitische Entscheidung des Managements. Hat sich ein Unternehmen mit diesen Fragen beschäftigt und Antworten darauf gefunden, hat es auch die Basis geschaffen, um die dafür notwendigen technologischen Entscheidungen zu treffen. Data Monetization muss selbstverständlich mit angemessenen Technologien unterstützt bzw. ermöglicht werden. Technologien bleiben auch in Zeiten der Digitalisierung „Möglichmacher“ (oder neudeutsch „Enabler“): nicht weniger, aber auch nicht mehr.
Die zweite Frage habe ich damit indirekt mit beantwortet. Mir fällt dazu das japanische Sprichwort ein: „Wenn du es eilig hast, geh langsam. Wenn du es noch eiliger hast, mach einen Umweg.“ Unsere Kunden müssen sich selbstverständlich auf den Weg machen. Langsam gehen, heißt ja gerade nicht stehen bleiben. Sie müssen rund um Big Data Dinge ausprobieren, Erfahrungen sammeln, Kompetenzen aufbauen. Hierbei scheint mir im Übrigen eine der größten Herausforderungen zu sein, in Zeiten von obligatorischen Business Cases und langwierigen Planungsprozessen kurzfristig das notwendige Budget und Personal für solche experimentellen Aktivitäten zu bekommen. Die Chance solcher Experimente liegt darin, mit überschaubarem finanziellen und personellen Einsatz sowohl auf geschäftlicher als auch technischer Seite Erkenntnisse zu gewinnen, die anschließend dazu genutzt werden, sich neue Handlungsoptionen zu erschließen, um zu einem späteren Zeitpunkt fundierte Entscheidungen treffen zu können.
Wie sollte man sich dem Thema Data Monetization nun aber konkret nähern? Eine typische Beraterantwort wäre „In einem ersten Schritt gilt es die Datenverwendung auf Data Monetization hin auszurichten.“ Was ich darunter konkret verstehe, erfahren Sie in meinem nächsten Blogbeitrag zum Thema „DnA und Digitalisierung“. Mit diesem Cliffhanger verabschiede ich mich für dieses Mal.
Nachfolgend eine Übersicht aller geplanten Beiträge zum Thema “Data and Analytics (DnA) und Digitalisierung”
- Und am Anfang steht die Wertschöpfung (Teil 1)
- Benenne Deine informatorischen Spielfelder (Teil 2)
- Mustererkennung der etwas anderen Art(Teil 3)
- Taipei 101: Was wir von Wolkenkratzern lernen können (Teil 4)
Ihre Ursula Besbak
Ursula Besbak berät PPI-Kunden bei Aufgaben rund um „Data and Analytics“. Sie bringt ihre langjährige Projekt- und Linien-Erfahrung bei Versicherungen und Banken immer dort ein, wo Datennutzer und -versorger sich organisatorisch oder architektonisch begegnen. Ihr Anliegen ist es, Kunden zu helfen, Daten wertschöpfend einzusetzen und die sich bietenden Chancen der Digitalisierung zu nutzen.