Virtualisierung zur besseren Vernetzung mit der Logical Data Fabric - DEEP
Virtualisierung zur besseren Vernetzung mit der Logical Data Fabric
04 September 2023

Das Datennetz oder Data Mesh, das wir in einem früheren Artikel vorgestellt haben, legt den organisatorischen Rahmen für die Verwaltung und den Zugriff auf analytische Daten in Unternehmen in großem Maßstab fest. Einige weisen auf die Schwierigkeiten der CDOs hin, die zahlreichen bereits vorhandenen technischen Lösungen und die organisatorischen Prozesse, die das Data Mesh mit sich bringt, aufeinander abzustimmen. Genau deshalb, weil ihnen ein operativer Pfeiler fehlt: die Datenvirtualisierung.
Der Mythos von Daedalus auf Daten angewandt
Machen wir eine Bestandsaufnahme: Organisationen häufen Daten an, und die Geschäftsbereiche versuchen, diese Daten in großem Umfang zu kombinieren. Die Zahl der verstreuten Quellen wächst und summiert sich, und die Historie nimmt zu. Zu den ERPs, Infocentern und zentralisierten Systemen von vor 20 Jahren sind Datawarehouses und Datamarts hinzugekommen. Big Data schuf das Konzept der Volumetrie und mit ihm die Datalakes und ihre Kohorte an neuen Tools und Datenvarianten (XML, JSON, Webservices, Excel-Dateien usw.). Heute bringen KI und Machine Learning Datenplattformen hervor, die dazu bestimmt sind, die grundlegenden Datenvolumenstapel für ihre Nutzung bereitzustellen.
All diesen Technologien ist gemeinsam, dass sie physische, undurchdringliche Datensilos bilden, die untereinander unbrauchbar sind, keine Kompatibilität aufweisen, spezifische und komplexe Verwaltungsregeln haben und von der IT-Abteilung gehandhabt werden. Um diese inhärente Starrheit des Lösungsdesigns zu umgehen, übernehmen die Fachbereiche Business-Analytics-Tools von Drittanbietern, deren Hauptergebnis ein schwindelerregender Verlust der Daten-Governance ist. Ohne eine umfassende Governance können Organisationen nicht behaupten, dass sie eine ausreichende semantische Qualität und zugängliche Managementregeln für eine einfache und zuverlässige Datenproduktion erreichen. Kurz gesagt, die Datenanalyse dreht sich im Kreis in einem technologischen Labyrinth, das Jahr für Jahr fast zu sorgfältig aufgebaut wird.
Fusionieren, ohne die spezifischen Verwaltungsregeln zu verraten
Die große Stärke des Data-Mesh-Konzepts besteht darin, den Fachbereichen den Zugang zu Daten zu ermöglichen, wo immer sie sich befinden und was immer sie sind, mit den Werkzeugen, die sie wünschen, und ihnen die Fähigkeit zu geben, darauf einzuwirken, ohne die IT-Abteilungen zu beanspruchen. Dazu braucht man also eine Lösung für die Zusammenführung (die die Silo-Problematik überwindet), die die zugrunde liegenden Systeme nicht beeinträchtigt.
Dies ist die Rolle der Datenvirtualisierung, die eine Logical Data Fabric bietet, ein echtes logisches Framework für die Darstellung, Manipulation und Modellierung von Daten. Es ist eine Art Ariadnefaden im Herzen der Unternehmenssysteme (von denen es natürlich nicht darum geht, sie abzuschaffen). Die Datenvirtualisierung sprengt eine Barriere nach der anderen, dank der folgenden sechs Merkmale:
- Data abstraction: Hierbei handelt es sich um die Fähigkeit, Daten virtuell zu organisieren, entsprechend einer logischen Modellierung.
- Zero replication, zero relocation: Zero replication ist unerlässlich für alle datenintensiven Modelle wie KI oder Data Quality Management, deren Pattern-Design auf einer großen Menge an Informationen basiert, und trägt darüber hinaus zu den Bemühungen um Sparsamkeit bei.
- Realtime/near realtime: Das Fehlen von Replikation und damit von langwierigen Prozessen ermöglicht das Plugging auf Echtzeitdaten.
- Selfservice data: Durch Virtualisierung werden die Quelldaten nicht beeinflusst. Die Fachbereiche können so im laufenden Betrieb Informationen in ihre Modelle einfügen, jede Änderung eines Standards in eine Geschäftsregel übersetzen, ohne dass es zu physischen Änderungen im Data Warehouse kommt, Webdienste generieren, auf Sandboxen zugreifen usw. - und das alles in einem Ausstellungsrahmen, der bei Bedarf der gesamten Organisation offensteht.
- Zentralisierte Metadaten, Sicherheit und Governance: Die Möglichkeit, Metadaten offen zu legen, ermöglicht eine maximale Interoperabilität. Organisationen können dann ihre Verwaltungsprozesse, Validierungsworkflows und die Bereitstellung für Geschäftsanwender frei definieren. Der Schwerpunkt Sicherheit und Governance gewährleistet Rückverfolgbarkeit, Rollendefinitionen, Anonymisierungsregeln, Verschlüsselung, Netzwerksicherheit usw. Die Daten werden in der Regel in einer Datenbank gespeichert, in der die Daten in einem bestimmten Format gespeichert sind.
- Hybridisierung in die Cloud: Die Logical Data Fabric ermöglicht es, auf Systeme von Drittanbietern zurückzugreifen und gleichzeitig spezifische Datenschutz- und Sicherheitsanforderungen zu erfüllen.
Häufige Verwechslungen
Das organisatorische Konzept des Data Mesh ist auf dem Vormarsch: Sein Versprechen, die traditionellen Engpässe der Datenstrategien zu beseitigen, ohne die Anfangsinvestitionen in Frage zu stellen, ist verlockend und wirksam.
Wenn man sich an die Definition von Gartner hält, ist eine Data Fabric in erster Linie eine physische Plattform. Dies ist auch die Art und Weise, wie sie von vielen großen Anbietern konzipiert wird. Die Virtualisierung zu ignorieren, scheint uns jedoch ein grundlegender Fehler zu sein: Es ist die Fähigkeit der Organisation, die Daten zu virtualisieren, die den Zugang zu unbegrenzter Nutzung, Verwaltung und Transformation eröffnet, vor allem ohne die Einschränkungen, die mit den Regeln der Verwaltung oder der Anwendungslogik verbunden sind, die einem Datalake, einem ERP oder einem Datawarehouse eigen sind.
In diesem Zusammenhang sollte sie nicht mit der Datenföderation verwechselt werden. Die Datenföderation ist eine alte Technologie und ermöglicht die Verbindung mehrerer Quellen ohne Replikation, aber die Verarbeitung erfolgt auf der Ebene des Tools. Da die Datenvirtualisierung die Operationen an die Quellsysteme delegiert, erlaubt die hohe Leistung alle Anwendungsfälle, insbesondere solche, die besonders ressourcenintensiv sind.
Abschließend möchten wir daran erinnern, dass die Logical Data Fabric in erster Linie ein Framework ist. Das bedeutet, dass sie modular und erweiterbar sein muss, um allen technologischen Problemen gerecht zu werden, auf die sie stößt. Das ist der Sinn und Zweck der Virtualisierung: Sie ermöglicht die Anpassung an neue Prozesse durch die Entwicklung von Konnektoren und beseitigt physische Beschränkungen. Mit anderen Worten: Eine Logical Data Fabric ist der Datenbeschleuniger par excellence.
Kontakt
Sie haben Fragen zu einem der Artikel? Sie brauchen Beratung, um die richtige Lösung für Ihre ICT-Probleme zu finden?
Einen Experten kontaktieren







Unsere Experten beantworten Ihre Fragen
Sie haben Fragen zu einem der Artikel? Sie brauchen Beratung, um die richtige Lösung für Ihre ICT-Probleme zu finden?
Weitere Artikel aus der Kategorie Data & AI
Veröffentlicht am
01 Januar 2025
Föderierte Governance: Eine zentrale Säule für den Erfolg von Data Mesh
Erfahren Sie, warum föderierte Governance eine entscheidende organisatorische Säule in einer Data-Mesh-Architektur ist. Ein strategisches Thema für datengetriebene Unternehmen.
Veröffentlicht am
12 Dezember 2023
Top 10 Datenbanken 2020: Beliebtheitsranking
Erkunden Sie das Ranking der 10 beliebtesten Datenbanken im Jahr 2020 laut DB-Engines, einschließlich Oracle, MySQL und Microsoft SQL Server.
Veröffentlicht am
14 November 2023
Haben Sie weitere Fragen?
Kontaktieren Sie uns kostenlos unter 8002 4000 oder +352 2424 8004 von Montag bis Freitag von 8:00 bis 18:00 Uhr.
Was spricht für DEEP?
Entdecken Sie DEEP, Ihren einzigartigen Partner für Ihre digitale Transformation.