CubeServ Blog
Bleiben Sie auf dem neuesten Stand, rund um das Data Driven Business mit Tools für Analytics von SAP & Co. und verpassen Sie keine Neuigkeiten, Downloads & Veranstaltungen.

Die Zeitdimension in der SAP Data Warehouse Cloud

Mit der Data Warehouse Cloud Version 2020.14 hat SAP die Einbindung von Zeitdimensionen ermöglicht.

Warum ist die Zeitdimension so wichtig?

Zuvor waren in den zu ladenden Daten für die SAP Data Warehouse Cloud viele Aggregationsebenen einer Datumsspalte erforderlich, z.B. für eine separate Spalte «Quartal» oder «Jahr», wenn in der Story mehrere Ebenen der Zeitaggregation notwendig waren.

Einige von uns sind das SAP BW gewohnt, bei dem das einzelne Datumsfeld nicht nur für das entsprechende Datumsfeld im Zielobjekt, sondern auch für andere Datumsfelder wie Quartal und Jahr genutzt werden kann. Diese Automatisierung ist nun auch in der SAP Data Warehouse Cloud möglich. Mit nur einem Datumsfeld kann man auch auf andere Datumsebenen in der Story filtern, wenn man von der neuen Zeitdimension Gebrauch macht. Es leitet automatisch die Information „Tag“ in das Jahr, Quartal und Monat um, und bietet zudem vorgefertigte Levels an Zeithierarchien an, die man im Storymodus auswählen kann.

Zugang zur Zeitdimension

Um sich den Komfort der automatisch erzeugten Zeitachsen zu Nutze machen zu können, muss man zuerst die Zeittabellen und dessen Dimensionen hinzufügen. Diese Einstellung erfolgt auf Spaceebene und nicht für die ganze DWC.

Wie aktiviert man nun die Zeittabellen und Dimensionen? 

In der Spaceumgebung befindet sich eine Kartei namens «Time Data».

Durch Anklicken der Schaltfläche «Create Time Tables and Dimensions» wird ein Dialogfenster geöffnet, welche Objekte die DWC anlegt:

  • Zeittabelle (enthält die Zeitdaten)
  • Zeitdimensionen (Jahr, Quartal, Monat, Tag)
  • Übersetzungstabellen (en, de, fr, es)

Hier ist es möglich, den Businessnamen und die Zeitrange nach seinen Präferenzen zu ändern. Die technischen Namen und der Kalendertyp sind jedoch vordefiniert und nicht änderbar.

Mit Klick auf «Create» sind sie ab sofort im Data Builder zu finden.

Wenn man im Data Builder auf eine Dimensionssicht klickt, öffnet sich ihre Architektur.

Man sieht das SQL Statement und sonstige Konfigurationen, womit die SAP ihre Zeitdimensionen ausliefert. Zudem verfügen die Dimensionen Tag und Monat vordefinierte Hierarchien. 

Um sie einzusehen, klickt man auf das Treppenzeichen.

Die Zeittabellen und Dimensionen sind nun erzeugt und können ins Modell eingebunden werden. Dafür geht man in ein bereits bestehendes analytisches Datenset oder lädt Daten neu in die DWC hoch.

In meinem Fall habe ich von vorne begonnen und eine CSV Datei über den Data Builder hochgeladen. Die Datei enthält eine Spalte namens «Day», die in der DWC bereits mit dem richtigen Datentyp «Datum» erkannt wurde.

Man muss sicherstellen, dass die Datumsspalte vom Datentyp Datum ist und nicht vom Typ String. Andererseits wird es nicht funktionieren.

Nachdem die Tabelle per Deploy in die DWC geladen wurde, kreiert man eine neue View im Data Builder. Per Drag & Drop kann die soeben geladene Tabelle zur Leinwand hinzugefügt werden. 

Klickt man nun auf die View, kann man in den Einstellungen die passende Zeitdimension assoziieren. Ich habe die Dimension Tag genommen, da mein Datenset eine Datumsspalte hatte.

Es öffnet sich eine neue Sicht. Hier möchte die DWC wissen, welche Spalte der Tabelle mit der neuen Zeitdimension assoziiert werden soll. Per Drag & Drop lässt sich die Spalte «Day» mit der Dimension «Date» verbinden.

Alle notwendigen Einstellungen im Modell sind nun erledigt, sodass mit der Story weitergemacht werden kann.

Auch hier möchte ich erneut erwähnen, dass der Datentyp «Datum» sein sollte.

Möchte man ein Modell erweitern, das per aDSO aus dem BW kommt, kann es sein, dass das Datumsobjekt als String in der DWC erkannt wurde.

Für diesen Fall muss zuerst eine berechnete Spalte hinzugefügt werden, welches den Datentyp String in ein Datumsdatentyp umwandelt (momentaner Workaround).

Mit Klick auf die Remotetabelle fügt man eine berechnete Spalte hinzu. Sie soll die Formel « TO_DATE(,’YYYYMMDD’) » enthalten, die für die Datentypkonvertierung String zu Datum sorgt.

Jetzt existiert eine neue Spalte mit dem korrekten Datentyp. Von hier aus kann man die Assoziation zur Zeitdimension hinzufügen, wie oben bereits beschrieben wurde.

Achtung: Die Assoziation zur Zeitdimension muss auf Ebene des analytischen Datensets erfolgen – nicht auf Ebene der Eingangsview der Tabelle. Daher habe ich in meinem Beispiel die View in ein analytisches Datenset umgestellt.

Storybau

Folgende Voreinstellungen müssen vorgenommen werden, um das Datenmodell mit der Zeitdimension im Storymodeler verwenden zu können.

  1. View ist ein analytisches Datenset.
  2. Schaltfläche «Allow Consumption» ist aktiv.
  3. Das Modell muss per Deploy hochgeladen sein.

Man kreiert eine neue Story und verwendet das soeben erweiterte Datenmodell als Datenbasis. Ich habe ein Diagramm gewählt, im Designpanel eine beliebige Kennzahl hinzugefügt und unter Dimensionen mein Datumsobjekt «Day» hineingezogen.

Fährt man mit der Maus über die Datumsdimension, sieht man, dass jetzt eine Hierarchie verfügbar ist. Mit Klick auf das Treppenzeichen und weiter auf «Set Hierachy…» kann man die gewünschte Hierarchie auswählen. 

Die zur Auswahl stehenden Hierarchien sind die im Eingang gezeigten, vordefinierten Hierarchien in der Zeitdimension Tag.

Je nachdem, welche Hierarchieeinstellung man gewählt hat, z.B. «Year, Quarter, Month, Day», werden die Hierarchielevel beeinflusst.

Ich habe die Hierarchie «Year, Quarter, Month, Day» verwendet. Mit jedem weiteren Level werden die Daten feiner und Details können erforscht werden, wie im folgenden Screenshot demonstriert wird.

Vereinbaren Sie jetzt Ihren Expert Call. Wir freuen uns über Ihre Nachricht.

Martin Hesse

Senior Consultant SAP BW
Newsletter abonnieren

Bleiben Sie auf dem neuesten Stand, rund um das Data Driven Business mit Tools für Analytics von SAP & Co. und verpassen Sie keine Neuigkeiten, Downloads & Veranstaltungen. 

Autor
Expert Team

Blog Artikel unserer Experten

graph

Advanced Analytics mit R: Eine Übersicht

In diesem Blog zeigen wir, wie einfach es ist, Advanced Analytics-Funktionen in R zu nutzen. Wir konzentrieren uns auf verschiedene Diagrammtypen, Regressionsanalysen mit R und Time Series Forcecasts mit R.

Best Practice Dashboard with SAP Analytics Cloud (SAC)

My colleagues and myself have talked a lot about Data Warehousing, Analytics, Reporting, Predictive and Planning in previous blogs and in several Webinars so far this year. However, we have not touched Best Practice in Dashboarding with SAP Analytics Cloud (SAC). Regardless of the solution,

SAP Data Warehouse Cloud – Erfahrungen beim Aufbau eines Datenmodells

Sie verwenden Einkaufsdaten in Ihrem Reporting?  Profitieren Sie von unserem kostenlosen Template!Sie benötigen weitere Daten?  Profitieren Sie von unserer Erfahrung!SAP Data Warehouse Cloud ermöglicht zentrale Datenbestände leicht und intuitiv zu erweitern. Einführung in die SAP Data Warehouse Cloud (DWC) Die SAP Datawarehouse Cloud Lösung ist

Advanced Analytics

Wie Business Analytics erfolgreich gestalten?

Business Analytics einfacher ✅ und effektiver ✅ zu gestalten, ist herausfordernd. Ich stelle mit dieser Blog(serie) meine Lösungsansätze zur Diskussion. ✌

Die SAP Data Warehouse Cloud – ein neuer grosser (?) Wurf (Teil 2)

Administration als aller Analysis Anfang In einem neuen leeren System sind zunächst immer einige administrative Schritte notwendig, zum Glück sind es in der SAP Data Warehouse Cloud nur einige wenige, die man unbedingt erledigen muss. Natürlicherweise beginnt es mit der Userverwaltung. Das Anlegen neuer User

Die SAP Data Warehouse Cloud – ein neuer grosser (?) Wurf (Teil 1)

Was ist die SAP Data Warehouse Cloud? Wer einen Blick auf die Zukunft von SAP Produkten werfen möchte, der besitzt mit der Agenda der SAP Teched (https://events.sap.com/teched/en/home) eine ganz brauchbare Glaskugel, zumindest für die nähere Zukunft. Auf dieser Agenda zeigt sich, dass SAP mit Nachdruck

Das Internet der Dinge, Big Data und eine Fischertechnik-Fabrik – Teil 6: Hadoop vom ABAP aus ansprechen: die GLUE-Middleware von Datavard

Im vorherigen Teil wurden Daten von Steuergeräten in ein CSV-File geschrieben, dies wurde per Kafka in Hadoop importiert und via Hive-Adapter bzw. Impala-Adpater in einer HANA-Datenbank gelesen. Diese Adapter stellen eine komfortable Möglichkeit dar, um auf die Hadoop-Daten lesend zuzugreifen. Diese Adapter ermöglichen allerdings nicht

Das Internet der Dinge, Big Data und eine Fischertechnik-Fabrik – Teil 5: Visualisierung mittels CalculationView und SAP Cloud for Analytics

In den vorherigen Teilen dieses Blogs wurde gezeigt, wie die Sensordaten der Fabriksimulation schliesslich als Tabelle (genauer: als Tabellenlink) in der SAP HANA verfügbar gemacht wurde. Der nächste Schritt wäre nun beispielsweise in der HANA einen gescripteten (oder alternativ auch graphischen) CalculationView anzulegen, der die