Translytische Datenverarbeitung

 

 · 

Wörter: 484 · Lesezeit: 3 min.

Inhalt

Die translytische Datenverarbeitung hat sich in den letzten Jahren zunehmend aus den beiden klassischen Modellen der Datenverarbeitung, der  Transaktionalen Datenverarbeitung und  Analytischen Datenverarbeitung entwickelt. Früher konnte man klar zwischen Anwendungen, die transaktionale Datenverarbeitung implementieren, und Data Warehouses, die analytische Daten verarbeiten, unterscheiden. Heute ist diese Unterscheidung nicht mehr so einfach.

Ein translytischer Prozess
Ein translytischer Prozess

In den letzten Jahren, insbesondere mit dem Aufkommen von KI-Systemen, hat sich eine Mischform aus  transaktionaler und  analytischer Datenverarbeitung entwickelt: Die translytische Datenverarbeitung. Sie dient dazu, Erkenntnisse aus Echtzeitanalysen in transaktionale (Geschäfts-)Prozesse einfließen zu lassen.

Ein Beispiel wäre das Betrugserkennungssystem einer Bank, das in Echtzeit analysiert, ob eine Transaktion betrügerisch sein könnte. Dieses System muss Transaktionen in Echtzeit verarbeiten können, um schnelle Entscheidungen treffen zu können. Es muss aber auch in der Lage sein, Muster in den Transaktionsdaten zu erkennen und zu analysieren, um betrügerische Aktivitäten zu identifizieren.

Es gibt auch Fälle, in denen analytische Datenverarbeitung eingesetzt wird, um die Leistung von transaktionalen Prozessen zu optimieren. Beispielsweise könnte ein Einzelhändler die Ergebnisse von Kundeneinkäufen analysieren, um herauszufinden, welche anderen Produkte ein Kunde, der bereits bestimmte Produkte in seinem Einkaufswagen hat, noch kauft.

Herausforderungen von translytischer Datenverarbeitung

  • Auf den ersten Blick steht die translytische Datenverarbeitung im Widerspruch zu den beiden anderen Modellen: Hier sollen langlaufende Analysen möglichst in Echtzeit ihre Ergebnisse liefern. Damit dies gelingt, müssen die Analysen gut geplant und auf ausreichend dimensionierter Hardware ausgeführt werden.
  • Zudem sollte bei der translytischen Datenverarbeitung auf standardisierte, getestete Statements gesetzt werden. Im Gegensatz zur analytischen Datenverarbeitung, bei der die Datenanalysten weitgehend freie Hand mit individuellen Statements haben. Durch diese Maßnahme kann der zu erwartende Aufwand einigermaßen abgeschätzt werden.
  • In transaktionalen Prozessen, die durch Translytik unterstützt werden, können nach Möglichkeit “Sicherungen” eingebaut werden: Wenn die analytischen Ergebnisse für den transaktionalen Prozess nicht essentiell sind, sondern ihn nur ergänzen oder verbessern, kann eine solche Sicherung in Form eines Timeout realisiert werden. Damit wird verhindert, dass das Warten auf die Analyse den transaktionalen Prozess unnötig in die Länge zieht.
  • Das Spezialwissen zur Datenanalyse wird nicht mehr nur gebündelt in einem analytischen Bereich einer Anwendungslandschaft benötigt, sondern in jeder Anwendung, die Daten transaktional verarbeitet. Dies stellt eine organisatorische Herausforderung dar.

Architektur translytischer Datenverarbeitung

In einer traditionellen Anwendungslandschaft gibt es Bereiche, in denen die transaktionalen Geschäftsprozesse ablaufen und einen Bereich, in dem die Analyse stattfindet. Der transaktionale Bereich kann z.B. ein Produktionsplanungssystem, ein Lagerverwaltungssystem oder ein Warenwirtschaftssystem sein. Der analytische Bereich wird durch ein Data Warehouse realisiert.

Eine traditionelle Anwendungslandschaft
Eine traditionelle Anwendungslandschaft

In einer modernen Anwendungslandschaft bleibt der analytische Bereich bestehen, wird aber durch translytische Komponenten innerhalb transaktionaler Anwendungen ergänzt.

Eine moderne Anwendungslandschaft mit translytischen Komponenten
Eine moderne Anwendungslandschaft mit translytischen Komponenten

Die translytische Datenverarbeitung macht die klassische analytische Datenverarbeitung nicht überflüssig. Sie erweitert sie. Im obigen Beispiel einer Bank kann die Betrugserkennung als translytische Komponente in das Transaktionssystem einer Bank integriert werden. Das Data Warehouse der Bank wird dadurch nicht überflüssig, da die klassischen analytischen Geschäftsprozesse wie Statistiken über Kundenzahlen oder Geldflüsse weiterhin durchgeführt werden müssen.