Doch dann kamen auf einmal neue Ansätze ins Spiel: Semantische Modellierungsmethoden wurden propagiert und vor allem Data Vault fand eine breitere Basis von Nutzern und Fans. Gerade bei Data Vault stellt sich die Frage, warum der Ansatz erst in den 2010er-Jahren populär wurde, obwohl die Methode selbst auf die 1990er-Jahre zurückgeht.
Mittlerweile hat sich Data Vault als Standard für neue Data-Warehouse- /Informationssystemlösungen etabliert, insbesondere, aber nicht ausschließlich bei relationaler Datenhaltung. Die Treiber dafür sind:
- Fachliche Anforderungen / Use-Cases: Anwender wünschen sich nicht erst seit der Ära der Data Lakes die Möglichkeit, Daten flexibel zu kombinieren. Neue Modellbereiche sollen einfach erstellbar und integrierbar sein, ohne dass das bestehende Modell in weiten Bereichen überarbeitet werden muss. Nicht „umbauen“, sondern „weiterbauen“ ist die Devise!
- Organisation & Zusammenarbeitsmodell: Das gesamte Unternehmen möchte heute von den Daten profitieren. Damit werden die fachlichen Anforderungen naturgemäß dezentraler. Unternehmen stellen sich agil auf, die Weiterentwicklung der Informationssysteme erfolgt daher in kurzen Zyklen durch kleine Teams. DevOps- & DataOps-Konzepte unterstützen diesen Weg.
- Technologie: Data Vault profitiert stark von einer hohen Join-Performanz im Datenbanksystem. Hier sind viele neue Player, insbesondere im Cloud-Bereich, in den Markt eingetreten. Tools für die Modellierung und die Data Pipelines sind da noch dünner gesät, aber es gibt sie.
Doch wo Licht ist, da ist auch Schatten. Data Vault bringt nicht nur Vorteile mit sich, sondern auch Defizite: Die Modellkomplexität oder zumindest die Anzahl der Tabellen erhöht sich deutlich. Wo Fachanwender sich noch gut in einem ER-Diagramm oder Star-Schema zurechtfinden, fällt das bei Data Vault deutlich schwerer.
Unterstützung durch Modellierungs- und Data-Warehouse-Automatisierungs-Tools ist zwar für Data Vault mittlerweile gegeben (und wird dringend empfohlen), aber viele dieser Werkzeuge sind für bestimmte Use-Cases optimiert und nicht so generisch nutzbar, wie man das von klassischen ETL-Tools oder Datenmodellierungswerkzeugen kennt. Bei der Abfrage von Daten aus dem Data-Vault-Modell ist die Unterstützung durch BI/Analytics-Lösungen noch sehr spärlich. Im Normalfall baut man deshalb heute einen dimensionalen Data Mart (gerne auch virtuell) als Presentation Layer über dem Data-Vault-Modell auf, womit man sich aber auch wieder Nachteile dieses Modellierungsparadigmas einhandelt.
Die Produkthersteller sind also weiter gefordert! Das bedeutet für sie aber auch ein großes Marktpotenzial – sollte also eine Win-win-Situation sein, oder?