Torsten Krüger [Werte & Wachstum]
Torsten Krüger [Werte & Wachstum]

Hintergrund

 

 

Der Begriff EDV wurde bereits 1959 geprägt, als die IBM ihren Transistorrechner IBM 1401 unter dem Motto "electronic data processing" vorstellte. Mit der Weiterentwicklung der Rechentechnik wurde in den 80er Jahren die maschinelle Datenverarbeitung u.a. durch betriebswirtschaftliche Applikationen zum unternehmerischen Erfolgsfaktor.

Zentrales Grundlage dazu das EVA-Prinzip: Eingabe à Verarbeitung à Ausgabe.

Dies wurde sowohl räumlich & logisch in Hardware & Software-Architektur angewendet, wie auch zeitlich:
zuerst die Erfassung der Eingaben, dann deren Verarbeitung, und zuletzt die Ausgabe.

 

Ein späterer wesentlicher Meilenstein war die Entwicklung von Technologien der Business Intelligence, um Menschen die effiziente OLAP Datenanalyse aus historischen strukturierten Daten im Data Warehouse zu ermöglichen, nachdem diese aufwändig über ETL Ladeprozesse auswertbar integriert wurden. Es fehlten jedoch einerseits eine prozessuale Steuerung, die Integration mit operativen Datenerhebungsprozessen, und die historische Erfahrungsablage der Experten-Bewertung von Daten / KPI sowie der resultierenden Experten-Handlung als wiederholbarer Aktionstyp.

 

Im Zeitalter der "Digitalisierung" wird der angestaubt wirkende Begriff "EDV" in seiner ursprünglichen Bedeutung "electronic data processing" neu erfunden, und jetzt wirklich in allen Geschäftsprozessen nachhaltig und effizient umgesetzt.

Die Vision

 

Data driven processes & services

Was ist heute wirklich anders?

Daten leisten seit eh und jeh einen bedeutenden Beitrag zum Unternehmenserfolg. Jedoch wird nur ein Bruchteil verfügbarer Daten als relevante Information für das daily business aufbereitet und effizient genutzt. Erst mit "Big Data" erlangte dieser Rohstoff seine heutige Wertschätzung.

Es ist strategisch wichtig, diesen volatilen, nachwachsenden Zukunftsrohstoff historisiert zu erschließen, und in governance-gesicherten Datenwertschöpfungsketten effizient zu verwerten. Mit der Digitalisierung werden Daten zur strategischen Ressource für Geschäftsinnovation:

  • Produkt-Innovation
  • Service-Innovation
  • Prozess-Innovation
  • Organisations-Innovation

Moderne Technologien beseitigen Medienbrüche und Performanceprobleme, die Kombination von Big Data, Cloud, Realtime, In Memory Analytics, Rule Engines, ESB und MicroServices ermöglicht völlig neue Use Cases. Und die "Digitalisierungswelle" überrent auch klassische "Beharrer", in der IT Unternehmenslandschaft werden 2 parallele Welten "classic & stabil" + "new & agil" opportun.

 

In 2016 wurde die Initiative "Industrial Data Space" als Verein von 18 Unternehmen institutionalisiert. Grundlage hierfür ist ein Forschungsprojekt von 12 Instituten der Fraunhofer-Gesellschaft mit Förderung des BMBF.

Zielstellung ist, einen sicheren Datenraum zu schaffen, der Unternehmen verschiedener Branchen und aller Größen die souveräne Bewirtschaftung ihrer Datengüter ermöglicht. Damit entsteht ein Referenzarchitekturmodell für die datengetriebene Gewinnung strategischer Wettbewerbsvorteile 2020.

 

Doch reicht dies? Wir denken - Nein!

Es braucht ein "Update" des EVA-Prinzips, um bisheriges Fach/Expertenwissen effizient in moderne IT Cloud Infrastrukturen abzubilden.

Hierzu wollen wir eine pragmatische best practice Erfolgsformel einbringen, um begleitend zum Forschungsprozess zeitnah schlanke Zukunftslösungen mit wirtschaftlich tragfähigen Use Cases abzubilden.

Die Mission

 

 

Gern leisten wir einen Beitrag bei der Digitalisierung Ihrer Geschäftsprozesse, u.a. mit folgenden Leistungen bzgl. Beratung und IT Implementierung in Kooperation mit unseren Technologie- und Realisierungspartnern:

  • Use Case + Business Case Entwicklung und Validierung
  • Entwicklung einer Zielarchitektur, idealerweise mit best practice Input aus d-p-i
  • Aufbau eines PoC, Proof of Concept und frühzeitige Verprobung der Praxistauglichkeit
  • Design optimierter Prozesse aus Datenwertschöpfungsketten in "Digitalen Services"
  • Begleitung der Konzeption und Umsetzung
  • Projektmanagement in Synthese aus agilen und produktorientierten Vorgehensweisen

Methodik d-p-i

d-p-i "Erfolgsformel"

 

In einer modernen (zukünftigen) Unternehmens IT Infrastruktur wurden Applikationen und Datensilos durch flexibel orchestrierte Services auf Basis förderativer Datenhaushalte & Stammdaten ersetzt, bei denen zwar auch der Mensch in den Rollen "Datenerfasser" und "Ergebnisleser" beteiligt bleiben kann, jedoch weitgehend datengetriebene IT Services klar und transparent definierte Fachprozesse (Workflows) durch eine flexibel datengetriebene Abfolge an Schritten ausführen. Dies sehen wir als Nachfolger des EVA-Prinzips und nennen diesen Architekturansatz d-p-i:

Im Zeitalter der Digitalisierung werden mit dem d-p-i Ansatz Routinearbeiten analog der ersten Industrialisierungswelle im 18. Jahrhunderts mit Technologie automatisiert.

Manuelle Datenerfassung ist weitgehend ersetzbar - sei es durch Connectoren mit Maschine-Maschine-Schnittstellen, Scannen/OCR, Robots etc. Aber auch das monotone Konsolidieren & Bewerten interne + externer, strukturierter + unstrukturierter Daten kann bei erschlossenen Datenschätzen einer d-p-i Systemarchitektur weitgehend maschinell ausführbaren Prozessen = IT Services überlassen werden. Und dies bei garantierter Verarbeitungsqualität inkl. vollständiger Dokumentation, auch bei der x-tausendfachen Wiederholung am Feiertag.

Dafür braucht es nur die Adaption des EVA-Prinzips als IT Prozess als eindeutig definierte Funktion auf Daten, einem Regelwerk, einer Analytik und klassifizierten Ergebnistypen, Aktionen im Sinne von Standardhandlungen:

Dabei sind heute Daten "multidimensional" über Datenquellen, zeitlicher Entwicklung (Data Warehouse), ihrer Bewertung, hierzu realisierter Handlung und deren Erfahrung & Erfolgsbewertung  vielschichtig verfügbar und im Zusammenhang relevant. Wir müssen hierzu "data" aus technischer Sicht verarbeiten (Konnektor, Integration, Historienführung) und aus menschlicher Perspektive bewerten (Kennzahlen, Aktionen, erzielte Wirkungen).

Diese "Data" Aspekte können wir auch konkret in der d-p-i Formel ergänzen:

Ergänzen wir diese technisch/inhaltliche Betrachtung um nötige Data Governance, so sind wir komplett, und können als zeitgemäßen Nachfolger des klassischen "EVA" die Methodik d-p-i als Grundlage für Digitalisierung nehmen, zum effizienten Design automatisierter kognitiver Prozesse und Architektur entsprechender IT Systeme.

Fazit

 

 

Die wirkliche Innovation der Digitalisierung erfolgt, wenn

  1. zuerst einmal und vom Kunden kommend der Wertschöpfungsprozess End-To-End neu gedacht wird, mit Erlaubnis einer "grünen Wiese"
  2. der Handlungsprozess des Sachbearbeiters strukturiert definiert und gemäß Ansatz d-p-i historisiert mit seinen Stamm- und Bewegungsdaten IT seitig abgebildet wird,
  3. ein Industrial Data Space gemäß Referenzmodell zwischen Geschäftspartnern etabliert wird, die jeweils in ihrer Unternehmensinfrastruktur ihre Prozesse mit offenen API / Schnittstellen Services flexibel abbilden,
  4. ein zentraler Prozessmanagement Ansatz auf BPMN2 ermöglicht, Prozesse mit übergreifenden Workflows abzubilden.

 

Gern unterstützen wir die Konkretisierung und Einführung einer solchen Plattform.

Druckversion Druckversion | Sitemap
© Torsten Krüger