{"id":64475,"date":"2025-07-11T10:08:02","date_gmt":"2025-07-11T08:08:02","guid":{"rendered":"https:\/\/www.cubeserv.com\/?p=64475"},"modified":"2025-08-04T12:34:30","modified_gmt":"2025-08-04T10:34:30","slug":"sap-datasphere-sac-als-alternative-zu-businessobjects","status":"publish","type":"post","link":"https:\/\/www.cubeserv.com\/de\/sap-datasphere-sac-als-alternative-zu-businessobjects\/","title":{"rendered":"SAP Datasphere & SAC als Alternative zu BusinessObjects?"},"content":{"rendered":"\t\t
SAP BusinessObjects ist in vielen Unternehmen das zentrale Werkzeug, wenn es darum geht, auch Nicht-SAP-Daten auszuwerten. H\u00e4ufig werden daf\u00fcr klassische SQL-Datenbanken wie Microsoft SQL Server oder Oracle an SAP BusinessObjects angebunden. \u00dcber ein vordefiniertes Universum lassen sich diese Daten dann komfortabel mit SAP Web Intelligence (WebI) analysieren.<\/strong><\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t Der Clou dabei: WebI nutzt die Definitionen aus dem Universum, um eigenst\u00e4ndig den jeweils ben\u00f6tigten und vor allem optimierten SQL-Code zu generieren. Dieser wird direkt auf der SQL-Datenbank ausgef\u00fchrt, und die Ergebnisse werden anschliessend im Bericht visualisiert. So profitieren die Anwender von performanten Abfragen und einer flexiblen Darstellung der Daten.<\/p> Als Berater durfte ich \u00fcber die Jahre hinweg zahlreiche Projekte mit SAP BusinessObjects, SAP Data Services und\u00a0 aktuell auch mit SAP Datasphere begleiten. Die Welt dieser Tools ist mir bestens vertraut: Seit mehr als 20 Jahren arbeite ich intensiv mit diesen Technologien.<\/p> In diesem Blog gehe ich der Frage nach, ob es heute m\u00f6glich ist, mit der SAP Analytics Cloud in Kombination mit SAP Datasphere Daten aus einer On-Premise-Datenbank genauso effizient und optimiert abzufragen wie fr\u00fcher mit WebI und Universum.<\/p> Kann die neue L\u00f6sung tats\u00e4chlich eine echte Alternative bieten? Finden wir es heraus!<\/strong><\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t F\u00fcr meinen Testfall liegen die Daten in einer lokalen Oracle-Datenbank. Der Zugriff auf diese Daten erfolgt \u00fcber SAP HANA Smart Data Integration (SDI), sodass die Daten in SAP Datasphere verf\u00fcgbar gemacht und dort eingebunden werden k\u00f6nnen.<\/p> Im ersten Schritt habe ich einzelne Tabellen der lokalen Datenbank als sogenannte Remote Tables im Inbound-Layer der SAP Datasphere angebunden. \u00dcber die Schichten Harmonization, Propagation und Reporting werden diese Tabellen dann per SQL-Views weiterverarbeitet. Ziel ist es, die Daten in ein Analytic Model mit Fakten und den dazugeh\u00f6rigen Dimensionen zu \u00fcberf\u00fchren \u2013 und das, ohne die Daten jemals physisch in SAP Datasphere zu speichern.<\/p> Anschliessend werden die erstellten Analytic Models aus SAP Datasphere in der SAP Analytics Cloud (SAC) eingebunden, um die Daten dort zu visualisieren.<\/p> Im Mittelpunkt des Tests steht die Analyse der von SAP generierten SQL-Abfragen: Werden tats\u00e4chlich nur die f\u00fcr den jeweiligen Report ben\u00f6tigten Daten aus der lokalen Datenbank abgefragt? Oder werden \u2013 wie es manchmal bei anderen Tools vorkommt \u2013 auch unn\u00f6tige Datenmengen \u00fcbertragen, die f\u00fcr die Visualisierung gar nicht gebraucht werden? Genau diese Fragestellung habe ich mir im Detail angeschaut.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t Es wird eine neue Story auf Basis des Analytic Models aus der SAP Datasphere erstellt:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Initial wird in der Story eine erste Kennzahl angezeigt und somit wurde auch bereits ein SQL gegen die lokale Source-Datenbank abgesetzt:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Der hierzu abgesetzte SQL sieht bereits vielversprechend aus, es wurde nur die angezeigte Kennzahl aus der Datenbank abgerufen:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Nun wird der Story eine Filterung hinzugef\u00fcgt:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Beim Ausw\u00e4hlen des Filters wird eine Liste aller verf\u00fcgbaren Werte angezeigt. Auch diese Werte werden selbstverst\u00e4ndlich direkt aus der Datenbank geladen \u2013 und zwar mit folgendem SQL:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Sobald der Filter ausgew\u00e4hlt und best\u00e4tigt ist, aktualisiert sich das Dashboard automatisch:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Aus Sicht der Datenbank wird dadurch erneut eine Abfrage ausgel\u00f6st, da zuvor lediglich die Fl\u00e4chen-Summe abgefragt wurde.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Jetzt m\u00f6chte ich weitere Dimensionen zur Story hinzuf\u00fcgen:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Dies f\u00fchrt dazu, dass ein entsprechendes SQL ausgef\u00fchrt wird:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Eine weitere Dimension wird hinzugef\u00fcgt:\u00a0<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Interessanterweise wird jetzt nicht mehr ein SQL mit beiden Dimensionen ausgef\u00fchrt, sondern ein separates SQL, das gezielt nur die Description sowie die jeweiligen Summen pro Description abruft:<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t Diese Tests zeigen, dass die SAP Analytics Cloud in Verbindung mit SAP Datasphere f\u00e4hig ist, optimierte SQL-Abfragen auf die Datenquelle abzusetzen und wirklich nur die Daten aus der Datenbank zu laden, die im Report ben\u00f6tigt werden. Damit erf\u00fcllt die Kombination aus SAP Analytics Cloud und SAP Datasphere die zentrale Anforderung, ausschliesslich die im Report angezeigten Daten aus einer angebundenen Datenbank abzurufen.<\/p>\n<\/div>\n \n<\/p><\/div>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\tVersuchsanlage<\/h3>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
Das Analytic Model<\/h3>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\tSchrittweise Erstellung der Story<\/h3>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
Schritt 1 - Analytic Modell ausw\u00e4hlen<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\tSchritt 2 - Filter hinzuf\u00fcgen<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\tSchritt 3 - Dimensionen hinzuf\u00fcgen<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\tFazit<\/h3>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
\n\t\t\t\t\tVereinbaren Sie jetzt Ihren<\/span>\n\t\t\t\t\n\t\t\t\t\tExpert Call.<\/span>\n\t\t\t\t<\/span>\n\t\t\t\t\tWir freuen uns \u00fcber Ihre Nachricht.<\/span>\n\t\t\t\t\t<\/h3>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t
\n\t\t\t\t<\/div>\n\t\t\t\n\t\t\tSilvio Ackermann<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t
Data Warehouse design, ETL creation and Advanced Analytics on Expert level with interests on technologies and challenges<\/h5>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t
\n\t\t\t\t\t\t\t