areto Data Chef

Ein modernes Data Warehouse sollte in der Lage sein, die Anforderungen agiler BI-Projekte zu erfüllen und neue Datenquellen zu unterstützen. Traditionelle ETL-Tools und Data-Warehouse-Architekturen verfügen nicht über die dazu erforderliche Agilität, Benutzerfreundlichkeit und den Automatisierungsgrad.

Die Lösung
Der areto Data Chef – innovatives Open Source Data Warehouse Automation Tool

Der areto Data Chef ist eine innovative DWH-Software, die den Data Warehouse-Erstellungsprozess durchgehend optimiert. Dadurch werden die Zeitdauer, Kosten und Risiken von Data Warehouse-Projekten erheblich reduziert. areto Data Chef unterstützt die analytischen Datenbanken von Exasol und Snowflake, um near-realtime-Data-Warehousing mit kontinuierlicher und inkrementeller Datenerfassung aus allen wichtigen Datenquellen zu ermöglichen.

  • Reduziert den Zeitaufwand um 50 %
  • Open Source – keine Lizenzkosten
  • Agile BI-Projekte werden möglich
  • Weitgehende Automatisierung der Datenintegration
  • Weitgehende Automatisierung der DWH-Modellierung
  • Reduziert den Personalaufwand
  • Basiert auf Data Vault 2.0

Datenintegration in wenigen Schritten mit dem areto Data Chef

Als Open-Source-Tool automatisiert der areto Data Chef die Modellierung und Datenintegration weitgehend. Ohne Benutzereingriffe und aufwändige Anpassungen von Schnittstellen werden Daten in wenigen Schritten im DWH integriert.

Die Extraktion der Daten erfolgt über ODBC oder Java-JDBC. Zudem können Daten über .csv-Files in die Datenbank geladen werden. Ein mitgeliefertes Repository sorgt dafür, dass sich der Nutzer nicht mehr um lange und aufwändige Konfigurationen kümmern muss. Der areto Data Chef enthält alle Metadaten und Informationen der ablaufenden Prozesse und kann nach Bedarf in Lösungen für das Monitoring integriert werden.

Die Zukunft ist Data Vault 2.0

Der areto Data Chef basiert auf der Modellierungstechnik Data Vault 2.0 und generiert die Datenmodelle, Prozesssteuerung sowie die drei Zugriffsschichten eines DWHs (Stage, Core und Mart) auf Basis unterschiedlicher Mapping-Dateien selbstständig. Die Mappings bilden die Grundlage zur Datenorganisation im DWH. Über sie werden die in Data Vault verwendeten Objekte Hubs, Links und Satellites definiert. Zudem hat der Nutzer die Möglichkeit, die bei der Beladung erforderlichen Hard- und Soft Business Rules festzulegen.

Herkunft und Änderungen der Daten sichtbar und nachvollziehbar

Ein weiteres Feature des Data Chefs ist die selbstständige Generierung von Hash Keys über Algorithmen und eine damit verbundene Historisierung im DWH. Für den Nutzer werden auf diese Weise die Herkunft und Änderungen der Daten sichtbar und nachvollziehbar.

Reduzieren Sie Ihren Zeitaufwand bei der Erstellung eines DWH um 50%

Die Verwendung des areto Data Chefs spart bis zu 50% des sonst üblichen Implementierungsaufwandes ein. Einerseits wird die Datenqualität durch die Reduktion manueller Nutzereingaben erhöht. Andererseits kann das DWH durch die Nutzung von Data Vault 2.0 flexibel erweitert und angepasst werden– und ist damit optimal für neue Anforderungen gerüstet.

Den areto Data Chef gibt es On-premises & on cloud

Datenhaltung einfach gemacht – Wie der areto Data Chef Ihre Daten strukturiert

Der areto Data Chef ermöglicht es dem Anwender, sich bei der Umsetzung von BI-Projekten auf die fachlichen Aspekte der Anforderungen zu konzentrieren. Eine Beachtung der technischen Umsetzung ist unter Einsatz des areto Data Chefs nicht weiter erforderlich. Mit geringen technischen Kenntnissen können Anwender des Tools eine komplette Datenintegration umsetzen und diese in bestehende Systeme einfügen. Auf diese Weise kann die Erweiterung eines DWHs in kürzester Zeit und in konstanter Qualität realisiert werden.

Agile BI leicht gemacht mit dem areto Data Chef

Agile BI-Projekte stellen neue Anforderungen an das zugrundeliegende Datenmodell für den Aufbau eines Data Warehouse. Da das DWH mit jeder Iteration um weitere Funktionen erweitert wird, muss das Datenmodell mit seinen Anforderungen mitwachsen. Vorhandene Datenmodelle und deren Ladeprozesse sollen nach Möglichkeit unverändert bleiben, um eine erneute Ausführung von Tests zu vermeiden.

Unter Verwendung von Data Vault 2.0 werden Informationen nach Schlüsselwerten („Hubs“), Referenzen („Links“) und Kontextattributen („Satellites“) unterteilt. Diese Strukturierung ermöglicht einen höchstmöglichen Grad an Standardisierung des Datenmodells und der Ladeprozesse. Eine Erweiterung des Datenmodells hat keinen Einfluss auf bestehende Strukturen. Sobald der Anwender die Mappings für den Data Chef bestimmt hat, erzeugen diese die relevanten Datenbankobjekte nach Data Vault: Hubs, Links und Satellites.

Eine Trennung der Daten im DWH erfolgt über einen Raw Vault (integrierte Rohdaten) und einen Business Vault (Ergänzung des Raw Vault um transformierte Daten). In Kombination mit einer allumfassenden Historisierung kann eine volle Revisionsfähigkeit der Daten sichergestellt werden.

Der areto Data Chef enthält alle Metadaten und Informationen zu den ausgeführten Prozessen im DWH und kann in Lösungen für das Prozess-Monitoring integriert werden.

Video abspielen
Datenversorgung von Snowflake mit Kafka Snowpipe Data Chef

areto Data Chef – innovative Technik open source

Überzeugen Sie sich von der Leistungsfähigkeit des areto Data Chef. Melden Sie sich hier an und wir schicken Ihnen den freien und kostenlosen Zugang zur Software. Gern beraten wir Sie natürlich über den optimalen Einsatz der Lösung.

Nutzen Sie Ihre Daten. Entdecken Sie Chancen. Gewinnen Sie neue Erkenntnisse.

Wir freuen uns auf Ihren Kontakt

Till Sander
CTO
Telefon: +49 221 66 95 75-0
E-Mail: till.sander@areto.de

Bitte um Rückruf