Wussten sie, dass Mercedes-Fahrer mit 5,4 Schäden je 100 Versicherte die häufigsten Unfall-Beteiligten sind? Oder, dass die bayerische Mutter im Schnitt ihr erstes Kind mit 30,2 Jahren bekommt? Dass 44% der über 65-Jährigen Online-Banking nutzen?
Die richtigen Daten in den richtigen Händen führen auch zu den richtigen Entscheidungen. Doch Daten allein sind nicht alles.
Wussten Sie z. B. dass das Kuchendiagramm laut den International Business Communication Standards höchst unergonomisch ist und eigentlich nicht verwendet werden sollte? Ein schlecht aufbereiteter Bericht kann selbst die wichtigsten Daten hinfällig werden lassen, falls er unbemerkt falsche Tatsachen suggeriert.
Als freiberuflicher Business Intelligence Berater helfe ich Ihnen nicht nur Ihre Daten in den Griff zu bekommen, sondern sorge durch nutzerfreundliches Reporting und Data Science auch für tiefergehende Erkenntnisse.
Denn während sich Hersteller wie SAP und Oracle mit Innovationen überschlagen, ist in vielen Fachbereichen noch immer ein altmodischer Umgang mit Daten zu beobachten. Excel-Chaos, Datenfriedhöfe und Berichte ohne Aussage. Diese Lücke möchte ich schließen und Sie zum zeitgemäßen Reporting führen. Wichtige Entscheidungen müssen auch auf fundierten Informationen basieren.
"Der Erfolgreichste im Leben ist der, der am besten informiert wird." - Benjamin Disraeli (1804-81), brit. Politiker u. Schriftsteller
Services
Reporting
Reporting mit SAP Business Objects, Web Intelligence, Crystal Reports, SAP Analytics Cloud. Certified SAP BI Consultant
Data Engineering
Datenbankentwicklung und Data Warehousing mit Oracle, Snowflake und SAP HANA. Oracle Data Integrator. Oracle Certified Associate.
Data Vault
Certified Data Vault 2.0 Practitioner. ETL mit Wherescape 3D & RED. Datavaul4dbt
Cloud
Cloudentwicklung mit Snowflake und Amazon Web Services
Data Science
Mustererkennung in großen Datenmengen mit Oracle Data Mining, Knime, Python, SAP PAL
Training
Trainer / Hochschuldozent für Datenbanken. SQL, Datenmodellierung, Normalisierung, PL/SQL
IT-Architecture
Certified Professional for Software Architecture
SCRUM
Certified ScrumMaster
Blog
Erfahrungen, Ideen und Gedanken
Data Vault mit Oracle Data Integrator
...oder jedem anderen ETL-Tool
Data Vault und Open Source
8 Tools um ein Data Warehouse komplett Open Source zu betreiben
Data Vault mit Oracle
Ein kleines Beispiel mit den EMP-Tabellen von Scott
Beeindruckend: 20 Jahre Word-Erfahrung
Aufruf für eine neue Bewertungsmethode für Softwareskills
Wie ich auf meinem Linux-Laptop Windows-Programme nutze
Remote Desktops aus der Cloud
Data Vault
Nur wer diese 7 Vorteile kennt, hat es wirklich verstanden
TDWI Virtual 2020
Was Kunden wollen und wie BI-Consultants reagieren
SAP Business Objects Support Ende?
Der lange Atem der erfolgreichsten Reporting Suite
Military Fitness
Statistisch fundierte Fitness Charts
DOAG 2019
Oracle auf der KI-Welle, Kunden auf Sparkurs
SAP Anwenderkonferenz
20 Jahre DSAG
Die 6. Trends auf der TDWI 2019
Die Zukunft von Business Intelligence
Das Ende des Kuchendiagramms
Warum man Kreisdiagramme nicht nutzen sollte
Konferenz: Artificial Intelligence and Big Data in Healthcare
Trends und Risiken
Global Graph Celebration Day
300 Jahre Leonhard Euler und Graphendatenbanken heute
Als Berater kann ich es mir leider nicht aussuchen in welche Bereiche ich Einblick bekomme und in welche nicht. Gerne würde ich beobachten, wie die von mir erstellten Berichte im Alltag verwendet werden. Müssen die Anwender viel anpassen bis die gewünschten Daten angezeigt werden? Sind all meine Mühen für Ergonomie und Nutzerfreundlichkeit egal, weil sowieso in Excel exportiert und dort weiter gearbeitet wird? Gleiches gilt auch für Adhoc Reporting. War das Training von mir inspirierend genug? Welche Berichte erstellen sich die Anwender da? Ist das Reporting zum Helfer in Not geworden oder doch nur „dieses komplizierte SAP“?
Die Anforderungen der Nutzer erhalte ich normalerweise in nüchterner Form „Bitte diese Spalten noch in diesen Bericht“. Von Akzeptanz, Vertrauen und Alltagsproblemen erfahre ich nur wenig. Entsprechend wenig kann ich etwas dafür tun. Gut wäre es hier einen Agenten zu haben. Nein noch besser einen Doppelagenten! Den Poweruser. Ein Poweruser beschäftigt sich verstärkt mit einer Software und kämpft täglich auf der Seite der Anwender. Er ist der erste Ansprechpartner für den Fachbereich und kennt alle Stimmungslagen. Der Poweruser hat einen Rundumblick und kennt wiederkehrende Probleme und Anforderungen sehr gut. Wenn beispielsweise der gleiche Bericht bereits vom dritten Anwender in ähnlicher Form erstellt wird, kann der Poweruser einen Standardbericht davon ableiten. Diesen erstelle ich ihm sehr gerne. Dann gibt es nicht drei „ähnliche“ Wahrheiten, sondern einen zentralen und zuverlässigen Bericht der meine Garantie trägt. Ebenso kann der Poweruser Schulungsbedarf identifizieren und gute Werbung für das Self Service BI machen. Für mich ideal: Ich erfahre, was die Nutzer denken und kann so das Beste liefern. Ein Hoch auf die Power User!
Datum: 28.01.2019
Kategorie: Reporting
Global Graph Celebration Day
300 Jahre Leonhard Euler und Graphendatenbanken heute
Gestern vor 300 Jahren war der Geburtstag von Leonhard Euler. Mit seinem Königsberger Brückenproblem gilt er als Erfinder der Graphentheorie. Grund genug das zu feiern. Hierzu war ich gestern auf einem Meetup der Community Graph Database - München
und habe mir einen Vortrag über die Graphendatenbank Neo4j angehört.
Graphendatenbanken sind in der aktuellen Debatte um Big Data und NoSQL aus meiner Sicht unterrepräsentiert. Dabei gibt es sehr spannende Einsatzmöglichkeiten. Das bekannteste Szenario sind die Panama-Papers. Etwa 11,5 Millionen Dokumente mit einer Größe von 2,6 Terrabyte wurden hier bereitgestellt. Anders als bei Business Intelligence Systemen ist hier nicht etwa von Interesse welche Umsätze in den letzten Monaten gemacht wurden und welche Kennzahlen sich daraus ergeben. Interessant hier sind die Beziehungen zwischen Personen, Unternehmen, Dokumenten, Geldtransaktionen und Briefkastenfirmen. Eine Fragestellung wie „Finde die kürzeste Beziehung zwischen Vladimir Putin und Firma X“ ist mit relationalen Datenbanken nur schwer umzusetzen. Hier muss man die möglichen Beziehungen bei der Abfrage bereits kennen und so auch die Abfrage formulieren. Eine Beziehung könnte sein, dass Vladimir Putin Teilhaber, Besitzer oder Kunde einer Firma ist. Oder aber Vladimir Putin hat einen Verwandten, der Teilhaber, Besitzer oder Kunde dieser Firma X ist. Oder es gibt ein Dokument in dem Vladimir Putin und die Firma X erwähnt werden. Diese möglichen Beziehungen werden in einer klassisch relationalen Datenbank durch Tabellenverknüpfungen realisiert, sodass man erst eine oder mehrere große und langsame Abfragen erstellen muss, um das Ergebnis zu bekommen. Eine derartige Abfrage in der Abfragesprache Cypher dagegen besteht aus einer einzigen Zeile und bietet in Millisekunden ein Ergebnis. Direkt darauf kann schon die nächste Frage gestellt und beantwortet werden.
Andere Szenarien wären Betrugserkennung, Social-Media-Monitoring, Routenplanung oder Berechtigunsmanagement. Warum also nicht grundsätzlich immer Graphendatenbanken einsetzen? Graphen werden in Neo4j beim Schreiben ausgerichtet. Für schreibintensive Operationen sind daher andere Datenbankmodelle performanter. Auch wenn man sich, wie im BI-Bereich üblich, primär für Aggregate wie Minimum, Maximum oder Summe interessiert, schneiden andere Datenbanken besser ab.
Hat man seinen Anwendungsfall als Graphenproblem identifiziert, steht man vor der Frage ob man tatsächlich eine Graphendatenbank einführen möchte. Wartung und Betrieb einer zusätzlichen Datenbank sollten hier berücksichtigt werden. Oracle bietet mit „Oracle Spatial and Graph “ ebenfalls eine Möglichkeit Graphendaten in der klassischen Datenbank non-relational zu speichern und auszuwerten. Auch „SAP HANA Graph “ stellt eine entsprechende Erweiterung für die HANA Datenbank dar. Beide nutzen die Abfragesprache GQL , welche sich momentan in der Standardisierung befindet. Ob die teils kostenpflichtigen Optionen in der Praxis genauso gut sind wie eine native Graphendatenbank wäre natürlich ein sehr spannendes Vergleichsszenario. Ein IT-Architekt sollte diese Alternativen zumindest mal gehört haben. In einer immer komplexer werdenden Welt haben auch Graphendatenbanken ihren festen Platz gefunden. Damit ein Hoch auf 300 Jahre Leonhard Euler.
Konferenz: Artificial Intelligence and Big Data in Healthcare
Trends und Risiken
Am 05.06.2019 fand im Max-Planck-Institut für Biochemie die Konferenz Artificial Intelligence and Big Data in Healthcare statt. Experten aus Medizin, Wirtschaft und Informatik erörterten in über 10 Vorträgen die aktuellen Trends. Was kann Künstliche Intelligenz überhaupt für die Medizin tun? Ist das nicht eine rein menschliche Domäne? Große Schritte wurden vor allem im Bereich der Bilderkennung gemacht. So kann KI mittels Deep Learning Krebs auf Röntgenbildern erkennen und das genau so gut wie ein Radiologe mit 10 Jahren Erfahrung. Ein KI-Verfahren, kann sich in wenigen Minuten deutlich mehr Röntgenbilder anschauen als ein Radiologe im ganzen Leben. Sind die Röntgenbilder kategorisiert in KREBS und KEIN-KREBS, lernt das Verfahren neuen Röntgenbildern selbst die richtige Kategorie zu vergeben.
Wird der Beruf des Radiologen nun aussterben? „Mit Sicherheit nicht!“ sagt der Arzt Claudio von Schacky. Denn Ärzte haben an Radiologen nicht nur Fragen wie „Ist ein Tumor vorhanden?“ sondern auch qualitative Fragen: Wie kritisch ist ein Tumor? Welche Behandlungsmöglichkeiten sind vielversprechend? Seiner Meinung nach, sollte man sich nicht der Frage widmen ob man den Arzt ersetzen kann, sondern wie Künstliche Intelligenz die Ärzte unterstützen kann. Hierzu sollten Mediziner ein besseres Verständnis für KI-Methoden aufbauen. Die Fähigkeit große Datenmengen auszuwerten kann helfen ganz neue Muster zu erkennen. Zusammenhänge zwischen mehreren Faktoren, die erst im großen Maßstab sichtbar werden. Statt von Symptomen sollte man laut Jan Baumbach von inneren Systemen ausgehen, die miteinander agieren. Dieses Verfahren versteht man als Computational Systems Medicine.
Eine wiederkehrende Frage im Publikum war auch der Datenschutz in der Data-Science-gestützen Medizin. Denn während U.S.A und China große Fortschritte machen, mangelt es den Forschern in Europa an leicht zugänglichen medizinischen Daten. „Die Datenschutzgrundverordnung tötet mehr Menschen, als Sie rettet.“ ist auch ein Zitat, dass ich aus dieser Konferenz mitnehmen werde. Doch die Angst um den Datenschutz ist nicht ganz unbegründet. Sollten wir wirklich alle unsere medizinischen Daten freigeben? Eine Zukunftsvision: Es ist das Jahr 2029. Ich trinke eine Coca Cola. Mein Smartphone klingelt. Eine freundliche Email der Krankenversicherung. Mein Blutzucker war diesen Monat viel zu hoch. Mein Tarif wird um 75 Euro monatlich hochgestuft. Schon wieder, denn aufgrund von neuesten Statistiken wohne ich in einer Hochrisikostadt und muss seit einem halben Jahr automatisch mehr zahlen. Jede Medaille hat zwei Seiten.
Spannend war auch die Frage ob Künstliche Intelligenz die menschliche Intelligenz irgendwann mal übersteigt. Die Frage ist berechtigt. Wenn die KI heute das Niveau einer Ameise hat und übermorgen das eines Menschen. Warum sollte sie sich da ausruhen? Denken wir an KI als künstlich denkendes Wesen mit allgemeiner Intelligenz, so sind wir davon noch sehr weit entfernt. Denken wir an KI, als Programme mit einem ganz speziellen Zweck, so gab es bereits einige Beispiele hierfür. Yu Wang vom Leibniz Supercomputing Centre in München nannte hier das Spiel Go, was ähnlich wie Schach vom Spieler fordert in mehreren möglichen Zügen zu denken. Während ein Mensch bis zu 50 Züge vorausplanen kann, tut sich die Maschine hier deutlich leichter. Googles Programm AlphaGo schlug den südkoreanischen Spitzensportler Lee Sedol in fünf Spielen 4:1.
Er verlor das Preisgeld von einer Million Dollar und ärgerte sich. Sollten wir, die Menschheit uns jetzt auch ärgern, dass KI schlauer ist als wir? Yu Wangs Kommentar: „Ärgern Sie sich, dass sie nicht schneller laufen können als ihr Auto?“ Richtig! Nicht ärgern, freuen! Auch Künstliche Intelligenz ist nicht mehr als ein weiteres Werkzeug, was wir zu nutzen lernen müssen. Dabei müssen wir noch nicht mal verstehen wie Sie im Detail funktioniert. Sebastian Schaal von luminovon nannte hier den passenden Vergleich zur Elektrizität. Elektrizität hat alle Lebensbereiche verändert. Gleichzeitig gibt es nur wenige Menschen, die verstehen, was Elektrizität eigentlich ist. Was alle durchweg wissen ist, wofür man es verwenden kann und welche Gefahren bestehen. Das ist genau der Weg den Ärzte so wie wir alle in den nächsten Jahren gehen müssen. Den Rest macht der Elektriker oder eben der Data Scientist.
Beliebt bei Controller, BI-Berater und Data Scientist. Schön bunt und leider auch sehr unergonomisch. Was spricht gegen die so populären Kreisdiagramme und was sollte man stattdessen verwenden? Eine Analyse am Negativ-Beispiel.
1. Es sind sehr viele Länder vorhanden, sodass eine Legende notwendig ist. Das Auge muss hin und her springen um sich die Information zusammenzufügen. Linienbeschriftungen sind zwar eine Alternative, rauben aber sehr viel Platz.
2. Die Farbtöne von Luxemburg und Tschechien sind nur schwer auseinander zu halten, besonders auf Beamer und Papier.
3. Die Werte haben nicht immer Platz und müssen durch Linien verbunden werden. Es muss teils mehrmals geschaut werden ob der Wert zum richtigen Kuchenstück gehört.
4. Es ist nicht auf Anhieb zu erkennen ob Österreich oder Frankreich größer ist.
5. Die 3D-Formatierung bietet keine Information und erschwert zusätzlich das Raumgefühl.
6. Die Schriftfarbe kann durch die die Diagrammfarbe gestört werden. Siehe Wert für Niederlande.
7. Das Kuchendiagramm könnte suggerieren, dass 3/4 aller Fortgezogenen nach Polen ausgewandert sind. Es wurden allerdings nicht alle Länder betrachtet sondern nur Nachbarländer Deutschlands, sofern sie in der EU sind. Das ist zwar nicht die Schuld des Kuchendiagramms an sich, kann aber einen potentieller Fehler beim Leser bedeuten. Hat der Leser vorher weitere Diagramme betrachtet oder ist der Kontext des Berichtes nicht ganz klar, ist dieser Fehler sogar sehr wahrscheinlich.
Wie kann man es besser machen? Ein Balkendiagramm liefert uns alles, was wir brauchen.
Die Balken sind beschriftet, weshalb keine Legende notwendig ist. Größenunterschiede sind schnell wahrzunehmen. Es werden keine falschen Anteile suggeriert. Das Diagramm könnte zudem auch ohne Informationsverlust schwarz/weiß ausgedruckt werden. Möchte man tatsächlich Anteile darstellen, kann man statt den absoluten Werten Prozente anzeigen. In Summe wird die Information schneller transportiert. Einfach und effektiv.
Die TDWI ist die wichtigste Konferenzen für Business Intelligence im deutschsprachigen Raum. 3 Tage lang gibt es Fachvorträge zu den Themen Data Warehouse, Reporting und Künstliche Intelligenz.
Auf der Ausstellerfläche fanden sich sowohl Softwarehersteller als auch Beratungen. Da ich fast mit allen Ausstellern gesprochen habe, leite ich für mich folgende Trends ab.
1. Cloud-Computing
Auch wenn besonders in Deutschland die Bedenken bezüglich des Datenschutzes sehr groß sind, so zeichnen sich doch klare Vorteile für ein Data Warehouse in der Cloud aus. Skalierung je nach Rechen- und Speicherbedarf, sowie Hochverfügbarkeit sind Features, die jeder Hersteller anbieten möchte. Auch SAP setzt voll und ganz auf die Cloud. Das neue Produkt „Data Warehouse Cloud bietet neben SAP BW und HANA Native nun die dritte Möglichkeit ein DWH umzusetzen. Auch wird Reporting immer öfter aus der Cloud betrieben. Bestes Beispiel hier ist die SAP Analytics Cloud. Hier soll Reporting, Planung und Künstliche Intelligenz in einem Werkzeug Endnutzer-gerecht zusammen kommen.
2. Virtualisierung
Eben aufgrund der Datenschutzbedenken werden nicht alle Daten in der Cloud vorgehalten. Dennoch möchte man die eigenen Daten im Reporting verwenden können. Hier wird von der Cloud aus auf externe Datenquellen zugegriffen. Die abgerufenen Daten können für eine bessere Performance im Cache zwischengespeichert werden. So kann auch ein ganzes Data Warehouse aus rein virtuellen Datenquellen aufgebaut werden. Das Cloud-DWH „Contiamo“ verfolgt genau diese Strategie.
3. Data Vault
DV ist ein Modelliermuster für das Core-Data Warehouse. Die Grundidee ist bei neuen Anforderungen die bestehenden Tabellenstrukturen unverändert zu lassen und stattdessen einfach neue Tabellen anzulegen. Das ermöglicht schnellere Entwicklungszyklen, Automatisierbarkeit und Audit-Fähigkeit. Fast alle Hersteller für ETL-Tools haben sich darauf eingestellt und bieten entsprechende Hilfsmittel und Funktionen. Während im Ausland neue Data Warehouses oft schon grundsätzlich mit Data Vault gebaut werden, greift dieser Trend nun auch in Deutschland.
4. Automatisierung
ETL-Strecken können sehr komplex werden. Viele Muster, wie etwa das 1:1-Mapping, sind jedoch trivial und wiederholen sich häufig. So lassen sich viele Ladeprozesse automatisieren. Produkte wie „Wherescape“ folgen diesem Prinzip. Einen etwas anderen Ansatz verfolgt „datasqill“. Hier setzt man auf die SQL-Kenntnisse der Entwicklerin. Sie kann sich auf das Schreiben von Select-Statements konzentrieren. Insert-,Update- und Merge-Statements werden jedoch für die ETL-Strecke generiert. Interessant ist auch das Produkt Metakraftwerk. Hier lassen sich Ladeprozesse von Drittanbietern wie z.B. Informatica einbinden. Ausgeführt werden diese ETL-Strecken auch weiterhin in Informatica. Entwickelt wird aber nicht mehr per Hand. Musterstrecken werden parametrisiert, sodass ganz spezielle ETL-Strecken generiert werden können. In allen Fällen wird durch Automatisierung die Entwicklungszeit drastisch reduziert.
5. Governance-Tools
Vorbei sind die Tage, wo Schnittstellenbeschreibungen noch per Hand geschrieben wurden. Governance-Tools wie „Erwin“ können aus Reports, Data Dictionarys und ETL-Strecken Meta-Daten extrahieren und diese zu Dokumentationszwecken in verschiedenen Formaten bereitstellen. Das Lineage bspw. kann dann als Webseite, Word- oder XML-Dokument dargestellt werden. Es muss nicht mehr der Entwickler gefragt werden, woher der Inhalt aus einer Tabellenspalte eigentlich kommt. Jeder soll auch ohne spezielles Werkzeug Zugriff haben. Mit Governance-Tools können Meta-Daten auch mit eigenen Infos und Kommentaren angereichert werden. Auch können Governance-Tools genutzt werden um Berechtigungen für ganz bestimmte Daten anzufordern. Sehr charmant finde ich die Lösung von „Cognizant“ den Berechtigungsprozess als Online-Shop darzustellen. Berechtigungen auf Daten werden in den Warenkorb gelegt und bestellt. Eine Lieferung bestätigt den genehmigten Zugriff.
6. Künstliche Intelligenz inspiriert
Neu auf der TWDI war diesmal, dass parallel auch die AI4U, die neue Schwesterkonferenz für Künstliche Intelligenz, in den gleichen Räumlichkeiten stattfand. Naturgemäß gab es besonders in der KI-Ecke viele Hingucker.
Procon-IT hatte einen digitalisierten Kickertisch. Während des Spiels werden über Video Spielstände automatisch gezählt und Statistiken z.B. zum Ballbesitz ausgewertet. Derartige Spielereien bieten viel Inspiration für die Industrie.
Und tatsächlich: Mayato stellte anhand einer Fräsemaschine dar, wie Produktionsprozesse optimiert werden können. Mittels Kamera und Deep Learning können Fehlerklassen ohne menschliche Hilfe erkannt werden. Mittels Mikrofon kann festgestellt werden ob die Fräse sich nicht mehr normal anhört und daher falsche Resultate erzielt. Insgesamt werden permanent Sensoren ausgewertet und Abweichungen können noch vor dem Auftreten von Problemen erkannt und behoben werden. Die Produktion kann ungestört weitergehen.
NTT Data bot mit I.R.ene einen Monitor, der den Betrachter nach Alter, Geschlecht und Stimmungslage sehr gut einschätzen konnte. Notiz an mich: Die Brille macht mich 5 Jahre älter! Doch warum nur anschauen wenn man den Besucher nicht auch gleich ärgern kann? Der Monitor von TNG produzierte Deep Fakes in Echtzeit. Das Gesicht des Betrachters wird hier als Donald Trump oder Angela Merkel dargestellt. Nicht als einfaches Foto, welches das Gesicht schlicht überdeckt. Nein - Kopfbewegungen, Augen und Mundwinkel gehen interaktiv mit. Das Foto zeigt übrigens wie ich „China“ sage.
Die TDWI schloss mit der Keynote von David Kriesel ab. Mit seinem Hobby-Projekt „Spiegel-Mining“ zeigte er wie man mit Data Science von außen einen guten Einblick in eine Organisation bekommt. Automatisiert ruft sein Programm regelmäßig alle Artikel und Meta-Daten wie Veröffentlichungszeitpunkt auf der Seite Spiegel-online ab. Schaut man sich z.B. kontinuierlich an, wann Autoren publizieren und wann nicht, findet man leicht heraus, wann welche Autoren und Autorinnen gleichzeitig im Urlaub sind und somit höchstwahrscheinlich auch eine romantische Beziehung führen. Ein großartiges Beispiel wie man aus frei zugänglichen Daten Rückschlüsse auf sehr vertrauenswürdige Informationen ziehen kann. Den Satz „Was wollen die schon mit meinen Daten machen?“ bringt man danach nicht mehr so leicht von den Lippen.
Die TWDI hat nicht enttäuscht. Es gab Einblicke in Produkte, Trends, praktische Erfahrungen und ein Stück weit auch die Leute dahinter. Eine gute Gelegenheit sich neue Impulse zu holen und ein Schaufenster in die Business-Intelligence-Welt von morgen.
Die DSAG Jahreskonferenz ist die wichtigste Konferenz für SAP-Anwender im deutschsprachigen Raum. Über drei Tage werden die aktuellsten Themen von SAP-Partnern, SAP-Anwendern und SAP selbst behandelt. Auf der Ausstellerfläche stellen sich spezialisierte Beratungshäuser vor, doch auch Produkthersteller für ergänzende Nischenprodukte sind hier zu finden. SAP selbst ist mit einem besonders großen Stand vertreten, wo man Einblick in die neuesten Produkte bekommt. Doch wer auf der DSAG eine reine Verkaufsshow erwartet muss wissen, dass der gleichnamige Verein Die Deutsche SAP Anwendergruppe e. V. in erster Linie die Interessen der Anwender vertritt. So werden in Vorträgen auch Forderungen an die SAP gestellt oder schlankere Lizenzmodelle von praxiserfahrenen Kunden empfohlen. Der richtige Ort um sich über SAP zu informieren.
SAP Data Warehouse Cloud
Für mich als Business Intelligence Consultant war die strategische Ausrichtung beim Thema Data Warehouse besonders interessant. So erfuhr ich aus erster Hand wohin die SAP mit der bereits dritten DWH-Lösung „SAP Datawarehouse Cloud“ hin möchte. Die Innovation: Auch die Endanwender sollen in der Lage sein Daten schnell zu modellieren um möglichst ohne lange BI-Projekte an ihre Datenanalysen zu kommen. Aus meiner Sicht ist das nicht ganz unproblematisch. Denn das Versprechen eines Data Warehouses den „single source of truth“ darzustellen, basiert auf zentral definierten Kennzahlen und professionell entwickelten und getesteten Datenstrukturen. Wenn ein Anwender z.B. für die Berechnung der Marge ganz andere Rechenvorschriften nutzt als sein Kollege, entsteht die Gefahr ein widersprüchliches Berichtswesen aufzubauen. Derartige Probleme mit der Datenqualität können schnell die Akzeptanz des Data Warehouse oder die Akzeptanz von SAP an sich behindern. Da das Produkt sich noch in der Betaphase befindet, bleibt mittelfristig wohl SAP BW4HANA die präferierte Lösung beim Kunden.
SAP Analytics Cloud vs. SAP Business Objects
Mit der neuen Reporting-Lösung SAP Analytics Cloud will man Reporting, Planung und Data Science in einem Produkt für Endanwender anbieten. Künstliche Intelligenz soll hier von vornherein verbaut sein. Ein Beispiel gefällig? Man schaut sich eine Zeitreihe der vergangenen Verkäufe an. Basierend auf den historischen Daten wird automatisch eine Prognose generiert, die den potentiell besten, den schlechtesten und den wahrscheinlichsten Fall als Graph darstellt. Ganz ohne Statistik-Kenntnis. Ausgehend von der Prognose können Planwerte abgeleitet und auch in der gleichen Weboberfläche fest geschrieben werden.
Da das Reportingtool noch recht neu ist, war ich sehr überrascht wie viele Beratungen auf der Konferenz SAC bereits beim Kunden einsetzen. Bedeutet SAP Analytics Cloud das Ende von SAP Business Objects? Zwar fließen die neuesten Innovationen primär in SAC ein, doch das Werkzeug hat noch lange nicht alle Funktionen, für die die erprobten SAP BO Reporting Tools geschätzt werden. Dies können pixelgenaue Printerstellung, Mehrsprachigkeit oder feingranulare Berechtigungen sein.
Die Roadmap von SAP Business Objects voll mit Leben und eine Produkteinstellung ist angesichts des großen Nutzerkreises (Marktführer!) ausgeschlossen. Es wird mittelfristiges wohl ein Nebeneinander der vorhandenen Reporting-Tools geben, je nach dem in welches Unternehmen und welche Abteilung man schaut. SAP selbst verkauft Business Objects eher als On-Premise Lösung, obwohl man auch diese in der Cloud betreiben kann.
Der richtige SAP-Partner
58% der Anwender sehen eine externe Beratung als wichtigsten Partner für SAP Projekte an
Die DSAG ist ein hervorragender Ort um SAP-Partner kennen zu lernen. Das ist wichtig, denn SAP selbst führt Projekte nur mit den ganz großen und strategischen globalen Playern selbst durch. Für Vertrieb, Support und Wartung braucht es für alle weiteren Unternehmen daher eine gute Beratung. Abhängig von Modul- und Branchenexpertise kann die Wahl des Partners großen Einfluss auf den Projekterfolg haben. SAP fordert von SAP Partner je nach Platin-/Gold-/Silberstatus Fortbildungen und Zertifizierungen.
Gleichzeitig macht die breite und wachsende Produktpalette von SAP es Beratungen schwer Experte in allen Bereichen zu sein. Es lohnt sich also den Partner nicht nur am Tagessatz fest zu machen.
Neben Spezialisten für bestimmte Branchen waren auch interessante Nischenfirmen vertreten. Würden Sie Buchungskreis mit „Bookings Circle“ übersetzen? Oder den Butten auf dem „map now“ draufsteht mit „Karten jetzt“ ? Dann sollten sie Ihre Übersetzungen der SAP-Software vielleicht einem Profi überlassen. Die Firma „wordflow“ hat sich darauf spezialisiert Übersetzungen in der SAP-Software vorzunehmen. Im Projekt oft ein Randthema dem ich selbst im SAP BO Bereich begegnet bin.
Wer IBCS-konforme Diagramme a la Hichert out of the box haben möchte, ist mit Graphomate Plugins gut bedient. Sie lassen sich in Excel, Web Intelligence, SAC und weiteren Reporting-Tools gut einbinden. Mehr als 10 Diagrammtypen ermöglichen die standardisierte Business-Kommunikation, ohne lange Eigenentwicklung.
Viel los am Messestand
Infomotion war auf der DSAG mit einem frechen Roboter dabei, der Kekse verteilte und zum Stand einlud. Künstliche Intelligenz? Nicht ganz. Ein versteckter Mitarbeiter steuerte den geschwätzigen Androiden.
Premiere zum 20. Geburtstag
Die DSAG feierte unter dem Motto „Und Action! Digitalisierung konsequent machen“ ihren 20. Geburtstag und so gab es auch eine kleine Premiere. Zum ersten Mal war ein Politiker als Keynote-Speaker geladen. Mit seinem Vortrag „Die digitale Revolution als Herausforderung und Chance für die Gesellschaft.“ verlieh Dr. Gregor Gysi der eher technisch ausgerichteten Konferenz eine sozialpolitische Note. Keine schlechte Entscheidung, denn auch in alltäglichen IT-Projekten ist der Blick auf bestehende Ängste sehr wichtig.
Das Konzept der DSAG überzeugt. Hier treffen Hersteller, Berater und Anwender aufeinander. Ein Ort für Dialoge, konstruktive Kritik und heiße Tipps. Bleibt nur noch zu wünschen: „Auf die nächsten 20 Jahre!“
Datum: 24.09.2019
Kategorie: Business Intelligence, Konferenz
DOAG 2019
Oracle auf der KI-Welle, Kunden auf Sparkurs
Ähnlich wie die DSAG für SAP, ist die DOAG die wichtigste Konferenz für Oracle-Anwender im deutschsprachigen Raum. Dieses Jahr begann die Nürnberger Konferenz mit einer Bekanntmachung. Die DOAG wird sich thematisch weiter öffnen. Das O für Oracle bleibt zwar, doch auch Oracle-fremde Themen werden künftig verstärkt behandelt. Und tatsächlich, im Programm finden sich Vorträge zu Postgres-Migrationen und auch Alternativen zu Exasol, sowie PL/SQL-kompatible Datenbanken wurden von den Ausstellern präsentiert. Was ist geschehen? Warum suchen immer mehr Oracle-Kunden nach Alternativen? Hört man sich auf der Konferenz um, kommt die Antwort schnell: „Die Lizenzkosten sind zu hoch geworden!“. Doch nicht nur die Kosten sondern auch die Lizenzierungsaudits stellen die Kunden vor Herausforderungen. Oracle kommt ins Haus und schaut, welche Softwarefunktionen genutzt werden. Nicht immer sind Entwickler sicher, welche PL/SQL-Packages oder Programme sie nutzen dürfen und welche nicht. Unternehmen wie etwa „Hi-Solutions“ haben sich daher auf Audit-Beratung und Lizenzoptimierungen spezialisiert.c
Doch warum ist Oracle eigentlich so selbstsicher? Was ist der Kurs und welche Vision treibt den Datenbankriesen an? Was kann Oracle bieten, was andere Datenbanken nicht haben? Die Antwort ist die „Die autonome Datenbank“. Um diesen Begriff besser zu verstehen, hilft der Vergleich zum autonom fahrenden Auto. Wie schafft es ein Tesla selbst zu fahren? Die künstliche Intelligenz wird mit Millionen von Bildern trainiert und erkennt irgendwann selbstständig, ob sich auf einem Bild ein Fahrzeug oder eine Ampel befindet. Es werden etliche Videos von menschlichen Fahrten beobachtet und daraus Fahrmuster abgeleitet. Wenn ein autonomes Auto also fährt, stützt es sich daher nicht nur auf den Fahrstil seines menschlichen Fahrers, sondern auf das Fahrverhalten aller beobachteten Fahrten. So kommt es, dass ein Auto über mehrere Hundert Jahre Fahrerfahrung hat ohne einen Meter wirklich gefahren zu sein.
Zurück zur Datenbank. Was erwartet ein Entwickler von ihr? Er möchte Daten speichern und möglichst schnell abfragen. Doch damit das geht, muss die Datenbank regelmäßig getuned werden. Indizes müssen berechnet, Backups erstellt und Updates eingespielt werden und das regelmäßig. Diese Aufgaben werden üblicherweise von einem Datenbankadministrator durchgeführt. Laut Oracle werden 75 % des IT Budgets für manuelles Datenbankmanagement ausgegeben. Diese Aufgaben soll nun die Datenbank selbstständig durchführen und zwar mit der Erfahrung aus hunderten von Unternehmen. Schon jetzt sind Datenbankadministratoren schwer verfügbar, ob nun im Projekt oder am Arbeitsmarkt allgemein. Neue Technologien wie Cloud, Big Data und Internet of Things führen zudem zu breit verstreuten Daten und somit zu einer größeren Angriffsfläche für Hacker. Gemäß einer Studie von Verizon hätten 85% der erfolgreichen Attacken durch Patches verhindert werden können, die es bis zu einem Jahr vorher bereits gab. Abwehr und das zeitnahe Einspielen von Patches kann durch KI daher wunderbar skaliert werden. Ein echter Mehrwert!
Wenn die Datenbank autonom fährt, was machen dann zukünftig die Datenbankadministratoren? Laut Oracle sollten sie sich verstärkt auf Innovationen statt auf wiederkehrende Betriebsaufgaben fokussieren. Der Datenbankadministrator nicht mehr als Spielverderber sondern als Evangelist und Treiber von hochmodernen Lösungen. Diese Vision kann ich mit Oracle teilen. Viele Datenbankfeatures sind Entwicklern unbekannt, obwohl sie seit Jahren fester und teils sogar kostenfreier Bestandteil der Datenbank sind. So setzen sich Trends durch, die architektonisch nicht ideal sind. In-Database-Mining bspw. ist bereits seit Oracle 9 verfügbar und doch allen Data Scientists, die ich kenne, absolut unbekannt. Ein DBA der berät und schult kann dem entgegenwirken.
Es bleibt abzuwarten ob die Vision von Oracle auch Erfolg am Markt haben wird. Wichtig aber ist es überhaupt eine Vision zu haben und sie konsequent zu verfolgen. Wer weiß? Vielleicht spielt das O in DOAG in ein paar Jahren wieder die größte Rolle.
Datum: 22.11.2019
Kategorie: Business Intelligence, Konferenz
Project Name
Lorem ipsum dolor sit amet consectetur.
Dreams is a free PSD web template built by Mathavan Jaya. Dreams is a modern one page web template designed for almost any purpose. It’s a beautiful template that’s designed with the Bootstrap framework in mind.
You can download the PSD template in this portfolio sample item at FreebiesXpress.com.