Als sei die schiere Menge an elektronischen Informationen nicht schon herausfordernd genug, leisten sich quasi alle großen Unternehmen hierzulande den Luxus, Daten mehrfach zu verarbeiten und diese auch noch redundant abzulegen. Organisatorisch und technisch sind die Bereiche Archiv, Data Warehouse oder ERP selbst heute noch voneinander getrennt. IT-Abteilungen lassen sich nicht gerne in die Karten schauen und die verankerte Trennung der Applikationen macht es nicht leichter, über diese Systemgrenzen hinweg Lösungen zu designen.
Dabei gab und gibt es immer wieder verschiedene Ansätze, alle Daten in einer Plattform zusammenzuführen. Dazu gehören beispielsweise auch viele Data-Lake-Projekte der letzten Jahre. Solche Unterfangen wurden jedoch nur selten von dem Wunsch getrieben, Daten zentral zu speichern, um sie übergreifend nutzbar zu machen, sondern um sie – so wie Google – primär inhaltlich auszuwerten und die gewonnenen Erkenntnisse entsprechend sinnvoll bei der Optimierung von Geschäftsprozessen einzusetzen.
Typischerweise speicherten Unternehmen in der Vergangenheit recht umfangreiche Datenbestände in einen Hadoop-Cluster und begannen sich anschließend zu überlegen, wie sich dem schlummernden Schatz nun seine Mehrwerte entlocken ließen. Dabei haben solche Projekte häufig ihren versprochenen Nutzen nicht einmal ansatzweise realisieren können. Es ist nicht trivial, die Vielfältigkeit der Plattformkomponenten in ihrer individuellen Komplexität richtig zu beherrschen. Um diese Komplexität zu umgehen, ist es zum Teil heute noch üblich – so wie vor 15 Jahren im ERP-Umfeld – auf jeden fachlichen Anwendungsfall mit einer systemischen Standardantwort zu reagieren. Dabei ist es essentiell, ausreichend zu reflektieren, für welchen Use Case sich das jeweilige System oder eine spezifische Komponente (Technologie) eigentlich eignet.
Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.