So integrieren Sie archivierte SAP-Daten in Data Lakes

SAP-Systeme enthalten Terabytes an historischen Daten. Dennoch kann die Einbindung von historischen SAP-Archivdaten in Analyse- und andere Business-Intelligence-Anwendungen aufgrund ihres einzigartigen Formats herausfordernd sein.

12.01.2023  | 

Themen

  • Archiving and Decommissioning
  • Data Analytics & Data Lakes
  • Data Integration
AdobeStock_488610832.jpg

Die in SAP-Archivlösungen gespeicherten Daten haben das Potenzial, die Geschäftsentscheidungsfindung zu verbessern. Doch wie?

SAP-Systeme gibt es schon seit Jahrzehnten, im Gegensatz zu den meisten cloudbasierten (Google, Azure, AWS) oder On-Premises Data Lakes (Hadoop). Daher wird der Großteil der historischen SAP-Daten oft archiviert. Dies stellt jedoch eine Herausforderung dar: Lösungen für die Archivierung historischer SAP-Daten speichern Daten in dateibasierten Speichern in einem komprimierten Format. Es ist schwierig, diese Daten in die Data Lakes eines Unternehmens zu integrieren, ganz zu schweigen von Analysen in Echtzeit, Algorithmen für maschinelles Lernen oder der Generierung von Mehrwert durch diese Daten. 

Welchen Mehrwert hat ein Data Lake ohne SAP-Daten und welchen Wert haben SAP-Daten ohne historische SAP-Archive? Oft werden Geschäftsdaten in SAP S/4HANA aufgrund der steigenden Kosten von SAP HANA bereits nach 2 Jahren archiviert. Daher ist die Bereitstellung des historischen SAP-Archivs für weitere Self-Service Business Intelligence von entscheidender Bedeutung. 

Outboard ERP Archiving kann SAP-Altdaten in Data Lakes eines Unternehmens migrieren oder archivieren. Bereits mehr als 40 der Fortune-500-Unternehmen vertrauen auf diese Lösung, um SAP mit Big Data Lakes zu verbinden, wodurch die Speicherung historischer und aktueller SAP-Daten in einem einzigen Data Lake eines Unternehmens unterstützt wird. 

Die Stärken des Data Lake und warum SAP-Daten der Schlüssel sind 

Ein Data Lake ist ein zentrales Repository, in dem Sie alle strukturierten und unstrukturierten Daten in beliebigem Umfang speichern können. Dies ermöglicht bessere Geschäftsentscheidungen, da Sie die Daten so speichern können, wie sie sind, ohne sie erst strukturieren zu müssen. Außerdem können Sie verschiedene Analysen durchführen: von Dashboards über Visualisierungen bis hin zur Verarbeitung von Big Data, Analysen in Echtzeit und maschinellem Lernen. 

Auf der Grundlage von Microsoft Azure bilden Data Lakes auch eine kosteneffiziente Lösung für die Ausführung von Big Data Workloads. Sie können zwischen On-Demand-Clustern oder einem Pay-per-Job-Modell für die Datenverarbeitung wählen. Data Lakes lassen sich gemäß der Geschäftsanforderungen vergrößern oder verkleinern und skalieren den Speicherbedarf und die Rechenleistung unabhängig voneinander, was eine größere wirtschaftliche Flexibilität ermöglicht. Laut Google ist ein Data Lake nicht einfach nur ein Speicher, und auch nicht dasselbe wie ein Data Warehouse. Data Lakes bieten eine skalierbare und sichere Plattform, die es Unternehmen ermöglicht, beliebige Daten aus beliebigen Systemen mit beliebiger Geschwindigkeit aufzunehmen. 

Die überwiegende Mehrheit der SAP-Kunden, die S/4HANA einsetzen oder eine Migration nach S/4HANA planen, müssen ihren HANA-Footprint deutlich reduzieren. Daher werden Belege von abgeschlossenen Geschäftsjahren bereits nach zwei Jahren archiviert. Vor diesem Hintergrund sind Data Lakes und Big Data Analytics ohne Daten von historischen SAP-Archiven (3-10 Jahre alte Geschäftsdaten) nur schwer vorstellbar. 

Die typische Architektur einer SAP-Landschaft, die historische SAP-Daten in einen Data Lake integriert 

Hier kommt die Lösung: Data Lakes, die einen vollständigen Satz an SAP-Daten, aktuelle heiße Daten aber auch historische SAP-Daten enthalten. Strukturierte Daten aus SAP werden mit strukturierten und unstrukturierten Daten aus anderen Datenquellen (IoT, Social Media, Non-SAP-Software, Anwendungen von Drittanbietern oder kundenspezifische Anwendungen) kombiniert und für die Verarbeitung von Big Data und Self-Service Business Intelligence aktiviert, um einen Mehrwert zu schaffen und Informationen für optimierte Geschäftsentscheidungen bereitzustellen. 

Immer mehr Unternehmen wollen alle Daten des Unternehmens in eine Data-Lake-Technologie integrieren. Outboard ERP Archiving ist eine ganzheitliche Archivierungslösung, die Daten zwischen der SAP-Datenbank und externen Speichern verschiebt, unabhängig vom Anbieter der Speicherlösung (z. B. cloudbasierte oder On-Premises Data Lakes) und gemäß der Nutzung oder dem Alter der Daten. 

Outboard ERP Archiving ist die einzige verfügbare Lösung, die archivierte Daten für weitere Datenanalysen im Cloud Data Lake bereitstellt, da historische Daten in verschiedenen Data-Lake-Formaten wie Hadoop HIVE, Impala, AWS Redshift, Azure Data Lake Service, Azure Databricks, Google Big Query oder Snowflake in transparenter Form bereitgestellt werden können. Aktive Daten verbleiben während des täglichen Betriebs in der Datenbank; kalte oder alte Daten werden archiviert. Archivierte Daten können weiterhin für Berichte verwendet werden. Im Data Lake werden alle SAP-Daten aktiviert, einschließlich historischer Daten, und durch Non-SAP-Daten (z. B. Kundenattribute) erweitert. Dies ermöglicht es Ihnen, optimierte Geschäftsentscheidungen zu treffen. 

Themen

  • Archiving and Decommissioning
  • Data Analytics & Data Lakes
  • Data Integration