Power-BI = Self-Service-BI?

Power-BI = Self-Service-BI?

Power-BI = Self-Service-BI?

Mit der Version 2013 hat Microsoft Excel um einige bemerkenswerte Add-Ins aufgerüstet:

  • Power-Query
  • Power-View
  • Power-Map (ehemals GeoFlow)           und zuvor bereits:

Power-Pivot  (ab der Version 2010) Während Power-Pivot ab der Version 2013 als Add-In vorinstalliert (aber nicht aktiviert) ist, sind die 3 anderen BI-Tools bei Bedarf nach zu installieren und kostenlos verfügbar. Power-View allerdings abhängig von der Excel-Version bzw. Lizenz.

Nach der Installation müssen die Tools ggf. über die Add-In-Steuerung der Excel-Optionen aktiviert werden (Haken setzen).

Zusätzlich wird das Tools INQUIRE angeboten. Hierbei handelt es sich allerdings weniger um BI sondern eher ein Arbeitsmappen-Analyse-Tool.

Zudem steht über PowerBI.com der BI-Dashboard-Designer zur Verfügung, ein komplexes Tool, das Power-View sowie Power-Query vereinigt, also auch unabhängig von einer Primäranwendung wie Excel als eigenständiges Frontend-Tool.

Hier ein Excel-Power-Map-Beispiel:

Es sei an dieser Stelle bereits vorab darauf hingewiesen, dass Rechner, auf denen diese Tools installiert werden, vorzugsweise mit „einigen PS unter der Haube“ ausgestattet sein sollten, soll heißen, diese Tools sind nicht gerade Ressourcenschonend. Bei „älteren“ Rechnern sollte ggf. geprüft werden, ob sich eine Installation anbietet. Überdies werden die Dateien nennenswert größer.

Bei der Verwendung der BI-Tools ist es hilfreich, wenn Ihnen die Nutzung von Pivot-Tabellen weitgehend geläufig ist und Ihnen der Begriff „Datenmodell“ nicht gänzlich fremd erscheint.

(Hinweis zu Datenmodell, Begriffsdefinition aus Gabler-Wirtschaftslexikon:  “ in der Datenorganisation Modell der zu beschreibenden und verarbeitenden Daten eines Anwendungsbereichs (z.B. Daten des Produktionsbereichs, des Rechnungswesens oder die Gesamtheit der Unternehmensdaten) und ihrer Beziehungen zueinander.“)
Quelle: http://wirtschaftslexikon.gabler.de/Definition/datenmodell.html#definition
Bedeutend hierbei: „..und Ihrer Beziehungen zueinander“

Etwas verkürzt formuliert bedeutet das in etwa, dass eine Art reduzierter Datenbanktreiber initialisiert wird, der die Grundfunktionalitäten einer SQL-Datenbank zur Verfügung stellt und es dem Anwender somit ermöglicht, Beziehungen zu Tabellen zu erstellen und diese in weiteren Analysis-Tools zu bearbeiten wie Power-Pivot (der alle im Datenmodell aufgenommenen Tabellen automatisch erkennt) oder Power-View.

Der Begriff BI (also Business Intelligence) ist in der Szene seit den 90ern ja „hart umkämpft“, aus der „oberen Liga“ vernimmt man gelegentlich abschätzige Blicke auf Excel und unkt mit Begriffen wie „self-service-BI“ (ein Begriff, den MS allerdings auch selber verwendet). Ich muss gestehen, dass ich genau darin den Nutzen sehe. Sicher muss nicht weiter diskutiert werden, dass diese Tools nicht die „Champions-League“ der BI darstellen können, aber auf der Front-End-Ebene (also der Anwendungsebene) wirklich gute Möglichkeiten für Datenintegration und -analyse bieten.

Was kann ich mit diesen Tools machen?

Power-Query:

Wie der Name schon sagt, handelt es sich um ein Datenabfrage-Tool (ETL=extract, transfer, load), also das Daten-Ingetrations-Tool, das zudem über eine eigene, zusätzliche Formeln- bzw. Funktions-Sprache (Syntax) verfügt.

Hier die Liste der Power-Query-Funktionen: http://office.microsoft.com/en-us/excel-help/power-query-formula-categories-HA104122363.aspx, auch Steuerungen wie IF THEN ELSE können auf Spaltenebene verwendet werden.

Daten unterschiedlichster Quellen (auch Web-Daten oder Power-Pivot) können miteinander kombiniert und modelliert werden und in Berichten (Reporting) anderer  Programmen eingebunden werden.

Eine Einführung zu PowerQuery von Microsoft findet sich HIER

Eien Auflistung der Spezifikationen und Beschränkungen HIER

Power-View

Das ist das Reporting-System. Sie finden es nach der Installation (und Aktivierung als Add-in) im Menü (Ribbon) unter EINFÜGEN, basierend auf einer Tabelle oder einem Datenmodell (bspw. einer Pivot-Tabelle, die sich auf mehrere in Beziehung stehende Tabellen bezieht) können auf einem separaten Blatt (in etwa vergleichbar mit Diagramm-Blättern) unterschiedliche Reporting-Elemente eingestellt werden: Diagramme (unterschiedlichen Stils), Pivot-ähnliche Auswertungen, mit oder ohne Kacheln als Steuerungs-Elemente, Karten u.ä. Sehr angenehme dabei ist u.a., dass diese verschiedenen Elemente untereinander in Abhängigkeit gesetzt werden, so dass ein Klick auf die Säule eines Diagramm sofort die Bezüge und Vergleiche in allen anderen Diagrammen und Auswertungen visualisiert.

Beispiel: Sie werten Kundendaten in Bezug auf Kategorien und Bundesländer aus. In einem Diagramm sehen Sie summierte Mengen je Kategorie, in dem anderen summierte Mengen je Bundesland. Mit einem Klick auf eine Kategorie sehen Sie jetzt die proportionalen Anteile in den Säulen der einzelnen Bundesländer:

Ausgewählt ist hier die Kategorie „B“, es wird die proportionale Verteilung in den einzelnen Bundesländern ausgewiesen:

MaschinenProduktionsAuftrasege_PowerVew_nachRegionKategorie

Und hier quasi das „Gegenteil“: ausgewählt wurden die Bundesländer Berlin und Niedersachsen, in den Kategorien ist die proportionale Verteilung zu erkennen:

MaschinenProduktionsAuftraege_PowerVew_nachRegionKategorie2

Zudem können mehrere Filter in Bezug auf Spalten gesetzt werden.

Power-Map

Das „Daten auf Karten“-Tool. Basierend auf BingMaps können die eigenen Daten auf Geo-Punkte gesetzt werden. Voraussetzung dafür ist zum einen eine bestehende Internetverbindung und natürlich die Kleinigkeit, dass auch irgendwelche interpretierbaren Geo-Daten vorhanden sind. Das kann ein PLZ-Spalte (oder Zip-Code) sein, oder eine Spalte mit Städte-, Länder- oder Bundesländer-Namen. Ggf. kann es erforderlich sein, diese Spalten, sofern sie bei der Verwendung nicht automatisch erkannt werden, einer Geo-Interpretation zuzuordnen.

Weiterhin sollte eine auswertbare Werte-Spalte vorliegen, die den Geo-Spezifikationen zugewiesen werden können. Somit werden Säulen (oder Heatmaps) auf eine 3-D-Karte projiziert . Sofern eine Datum oder Zeit-Spalte vorliegt, kann diese als Zeit-Leiste die Säulen oder Heatmaps animieren.

Zudem können einzelne Szenen erstellt und daraus ein Film generiert werden, nach dem Motto „Daten erzählen Geschichte(n)“, data-story-telling, siehe obiges Beispiel.

xl-dataCleaner, das Datenbereinigungs-Add-In

xl-dataCleaner, das Datenbereinigungs-Add-In

Zwischen ‘Daten’ und ‘Auswertung’ liegt oftmals das Problem der Datenbereinigung (auch Datenreinigung bzw. Data-Cleansing genannt), also der Weg, bzw. die Methode, bestehendes Datenmaterial auf Inkonsistenzen zu untersuchen, in eine homogene Datenbasis zu überführen und auf einen auswertbaren Stand zu bringen. Die Bereinigung ist oftmals aufwändig und erfordert hohe Aufmerksamkeit sowie detaillierte strukturelle Kenntnisse der Datenbasis.
Manche der Datenbereinigungsaufgaben lassen sich automatisieren, manch andere  sind derart ‘speziell’, also unternehmens- bzw. themenbezogen, dass es kaum möglich ist, diese Aufgaben zu standardisieren.

Das Datenbereinigungstool xl-dataCleaner für Excel widmet sich den automatisierbaren Datenbereinigungsproblemen, die in der täglichen Praxis immer wieder auffallen.

xl-dataCleaner, Download bei heise

Besonders in den Fällen, bei denen aus verfahrenstechnischen Gründen in regelmäßigen Intervallen Daten aus unterschiedlicher Herkunft eingespielt werden müssen (SAP, AS-400, SQL-Server oder sonstigen Datenquellen, als .csv, .txt, .xls, .dbf oder anderen Dateitypen) lohnt sich der Einsatz eines automatisierten Tools, das immer wiederkehrende Vorgänge bei der Abgleichung oder Bereinigung von Daten extrem beschleunigen kann und somit zu einer signifikanten Zeit- und Kosten-Ersparnis führt. Weiterhin wird durch die Automatisierung die Datensicherheit gewährleistet, da Ihnen bei Abgleichen, die ‘händisch’ oder ‘per Sichtung’ vorgenommen werden, zwangsläufig Fehler unterlaufen

Bei allen Automatisierungsvorteilen erfordert eine Datenbereinigung sehr hohe Aufmerksamkeit und recht detaillierte Kenntnisse über die Daten hinsichtlich der Struktur und des Aufbaus und auch (bis zu einem gewissen Grad) inhaltlich.Beachten Sie bitte weiterhin, dass alle Änderungen, die von xl-dataCleaner vorgenommen werden (also z.B. Löschen von doppelten Zeilen)  NICHT RÜCKGÄNGIG gemacht werden können, also die ‘Rückgängig’-Funktionalität von Excel nach Ablauf dieser Funktionen nicht zur Verfügung steht. Testen Sie die Abläufe ggf. auf einer Datenkopie.

Hinweis:

Nach dem Öffnen oder einbinden der XLA(M)-Datei sollten die
xl-dataCleaner-Symbolleiste XP/2003 bzw. Symbolleiste 2007
erscheinen.

VOR dem Start der einzelnen Funktionen bzw. dahinterliegender Makros muss der Zellzeiger auf die gewünschte Spaltenüberschrift-Zelle gesetzt werden (Ausnahme: Inkonsistenzen-Check).

Zu Ihrer Information: Makro-Viren

Was sind Makro-Viren?
Mit der Programmiersprache VBA (auch Excel-VBA) besteht die Möglichkeit, auf  Elemente des Betriebssystems oder anderer installierter Programme zuzugreifen (z.B. Outlook). Auf diesem Wege können kleine oder auch größere Programme bzw. Programmteile über einen Makro „eingeschleust“ werden, die auf Ihren Computer Schaden anrichten. Bei Ausführen bzw. Starten von Makros unbekannter Herkunft besteht somit grundsätzlich eine Gefahr.

Die Makros von XL-dataCleaner wurden ohne die Verwendung von API oder ActiveX-Elementen in VBA programmiert und können bedenkenlos verwendet werden, da bei der Programmierung ausschließlich auf Excel-VBA-Funktionen und Funktionalitäten zurückgegriffen wurde.

Wie gut, dass niemand weiss…

…wo in meinen Daten die Informationen stecken. Naja, Spaß beiseite. Im Grunde handelt es sich um ein Ärgernis, das in allen Unternehmen von klein bis groß anzutreffen ist. Mitarbeiter kämpfen sich durch gigantische Ordnerstrukturen und verstecken dort Ihre Daten. Zwar sind natürlich (fast) alle Unternehmen in irgendeiner Weise zertifiziert, auch die Informationsstrukturen sind im Grunde zumeist definiert (Stichwort ISO9000soundsoviel).

Aber: Theorie ist ISO, Praxis ist Excel.

Der Klassiker: Auswertungsdaten werden in Excel-Arbeitsmappen nach Jahren, je bestehend aus 12 Tabellenblättern (von Januar bis Dezember) auseinandergerissen. War das noch zu XLS-Zeiten zweckmäßig, ist das seit XLSX nicht mehr begründbar. In XLS-Dateien konnten lediglich 65.536 Zeilen abgebildet werden, in der XLSX-Variante 1.048.576, das ist immerhin 16 mal so viel. Aber man gewöhnt sich an das Verfahren, dabei wäre es kein großer Aufwand, die Daten (auch jahresübergreifend) zusammenzufassen. Auch die Mächtigkeit der immerhin kostenlosen Power-BI-Add-Ins Powerpivot und Power-Query (ab V.2010) sowie Power-View und  Power-Map (ab V.2013) hat sich in den Unternehmen noch nicht sonderlich herumgesprochen.

Oder: Es werden Duplikate und erhebliche Redundanzen mit nennenswerten Anomalien geführt; Motto: „in meiner Kundentabelle wohnt Firma Müller GmbH in Heidelberg und nicht in Stuttgart“ bzw. „die ABC-Membran hat in meiner Liste die Artikelnummer WA4711 und noch nicht die aktualisierte Nr. WA4711H“. Im günstigsten Fall werden diese Redundanzen mit einem Dateinamen-Präfix á la „20150402-Produktdaten“ geführt um eine Historie zu begründen.

Sind die Daten schlecht gepflegt, drohen falsche Abrechnungen und Auswertungen. Überhaupt besteht bei Auswertungen meiner Erfahrung nach eine erstaunliche „Gläubigkeit“ an die Korrektheit der Datenbasis.

Die Datenqualität leidet erheblich, die Informationen „ver-dschungeln“ sukzessiv, die Zusammenführung ist oft sehr problematisch. Lt. Computerwoche (data-expert-lounge) büßen Unternehmen bis zu 25 Prozent ihres operativen Gewinns in Folge schlechter Datenqualität (DQ) ein [http://www.computerwoche.de/software/bi-ecm/1938325/]. Lt. Forrester-Umfrage „Trends In Data Quality And Business Process Alignment“, unter großen US-Unternehmen, ist 18 Prozent der befragten Unternehmen das Zusammenspiel von Business Process Management (BPM) und Datenqualität nicht bewusst. Es handelt sich eben nicht um ein „nice-to-have“-Thema, wird aber teils noch immer so gesehen! Unter Business-Intelligence (BI) stellt man in der Regel hochgezüchtete Softwaresysteme vor, aber auch das muss nicht unbedingt sein, denn wie lautet das Ziel von BI? Ganz einfach: Die (möglichst verlässliche) Ermittlung von Kennzahlen. Es ist nicht immer gleich zwingend erforderlich eine hochkomplexe Software zu entwickeln oder zu erwerben mit der man zum Mond reisen könnte obwohl noch nicht mal die Absicht besteht die Erdatmosphäre zu verlassen, sondern lediglich auf einen Hügel zu steigen um die Übersicht zu bewahren.

In wenigen Schritten zur Lösung:

  • Zuallererst: Eine Daten-SICHTUNG und Bewertung (welche Daten liegen in meinem Unternehmen überhaupt vor), Prüfung nach Relevanz und Aktualität (gute Daten / schlechte Daten)
  • Die Bereinigung der Daten: Duplikate raus und überprüfen auf Korrektheit, ggf. vervollständigen und abgleichen der Daten – Stichwort „Datenhygiene“. Dieser Punkt ist leider oftmals mit etwas zeitlichem Aufwand verbunden.
  • Die Zusammenführung wesentlicher Daten unter einheitlichen Strukturen
  • Die klare Trennung von Stammdaten und Bewegungsdaten (SEHR wichtig!!!)
  • Eine klare Ablage- und Sicherungsdefinition der Daten
  • Die eindeutige Kennzeichnung von Sicherungen und
  • Eine klare Zuständigkeitsdefinition: wer darf was ändern/anfügen/löschen – und trägt somit die Verantwortung für Korrektheit und Aktualität der Daten    sowie
  • Die Ermöglichung von Daten-Verknüpfungen

Die Einhaltung dieser Punkte (oder Teile davon) würde bereits eine erhebliche Qualitätssteigerung gewährleisten. Natürlich macht sich das alles nicht von selbst. Je „chaotisierter“ die Datenbasis, desto aufwändiger ist zunächst die Bereinigung, aber desto deutlicher ist auch der schon bald spürbare Effekt.

„Data-Quality-Management“ wird (zu Recht) häufig mit „Data-Mining“ in Verbindung gebracht. Unter diesem Stichwort werden wiederum teure Programme und Tools angeboten. Für Excel wird ein ebenfalls kostenloses Data-Mining-Tool als Add-In angeboten. Das Data-Mining-Verfahren kann allerdings auch ohne den Einsatz von Software erfolgen. Der o.g. Punkt „Daten-Sichtung und Bewertung“ ist im Grunde bereits Data-Mining und erfordert oft nur ein hinreichendes Verständnis für Daten und Datenstrukturen und eine möglichst auf Erfahrung basierende Analysefähigkeit.

Fazit: Nichts gegen Excel (und andere Desktop-Tools), ganz im Gegenteil. Nutzen Sie Excel – aber nutzen Sie es auch. Professionell! Versetzen Sie Ihre Mitarbeiter in die Lage, die Möglichkeiten (auch die neuen Möglichkeiten) zu nutzen (Stichwort Schulung). Und: Holen Sie sich ggf. Unterstützung.

Aussagefähige Analysen mit PowerPivot

MS-Excel-Powerpivot, DAS BI-Tool

PowerPivot ist ein neues Microsoft BI Feature, das als Excel Add-In in der Version ab Excel 2010 (leider nicht für Excel 2007) zur Verfügung steht.

Eine Einführung sowie eine Download-Möglichkeit finden Sie unter: http://www.powerpivot.com.

Mit PowerPivot können Sie als Anwender Daten aus unterschiedlichsten Datenquellen laden und diese in Datenbank-ähnlicher Weise miteinander verknüpfen. Die Daten werden in einem Extra-Pivot-Programmfenster  analysiert. Die Darstellung erfolgt in der gewohnten Excel Pivot Methode. Neu in der Excel-Version 2010  sind die Slicer (sog. „Datenschnitte“), mit denen Sie auch in verschiedenen Kombinationen Daten schnell filtern und besonders gut in Verbindung mit Powerpivot-Daten verwenden können. Powerpivot ist in verschiedenen Versionen verfügbar, zum einen als Add-In für den Excel 2010 Client, als PowerpivotPro V2 CTP3f (download) mit zusätzlicher Funktionalität z.B. in der Beziehungs-Darstellung und der Sort-by-column-Funktion und einmal als Enterprise Feature von SharePoint/SQL Server. Auch in der Client-Version sind Sie hinsichtlich der Daten-„Mengen“ fast unbegrenzt, immerhin mehrere Millionen Datenzeilen können eingelesen werden.

Einmal erstellte PowerPivot Dokumente können auf Basis der zu Grunde liegenden Daten aus den jeweiligen Quellen aktualisiert werden. Die Arbeitsgeschwindigkeit von PP ist auch bei großen Datenbeständen sehr hoch.

Über die im Excel Pivot integrierte Charting-Funktionalität ist eine  – auch mehrfache –  grafische Darstellung der Daten möglich.

Mit den Möglichkeiten der tabellarischen und grafischen Analyse lassen sich direkt in Excel ansprechende Berichte (Reports) und Dashboards erstellen, was gerade im Management-Bereich sehr begehrt sein dürfte.

Im Grunde hat Microsoft mit der Veröffentlichung von Powerpivot für den Anwender in manchen Fällen den „Umweg“ über Access-Dateien (MDB oder ACCDB) unnötig werden lassen. Habe ich in Vorgängerversionen häufig das Problem gehabt, dass die Anbindung an unterschiedliche externe Daten einschl. Verknüpfung zunächst über den Umweg einer MDB oder ACCDB realisiert werden musste (hier können dann die Tabellenbeziehungen erstellt werden) um dann wiederum via Excel an diese Daten anzubinden (und das Ganze ggf. noch über einen weiteren Umweg mit definierten Abfragen), kann der Anwender nach Einrichtung eines PP-Dashboard sehr schnell seine Auswertungen erhalten (was aber nicht zwingend bedeutet, dass auf die Datenbanken selber verzichtet werden könnte;-)..

Die Installation von Powerpivot erwartet (sofern nicht auf Windows7 installiert) DotNet-Framework ab V.3.5.

Gern verweise ich auf folgenden Beitrag aus MindBusiness: „sehr überzeugend

Was ist Business Intelligence? (by intricity101 via Youtube – englisch)

PowerPivot: Beziehungen:  Verknüpfungen zwischen Tabellen

Definition: Hier etwas Theorie.

Was sind Beziehungen?

wie finden die Teile zueinander?

Beziehungen zwischen Tabellen sind in Excel selber nicht darstellbar. Technisch gesehen, sind Tabellenbeziehungen den Datenbanken entlehnt (ER-Modell[1]). Dabei sind nicht die Tabellen selber „verknüpft“. Die Beziehung findet über Spalten (bzw. Felder, wie es in der „Datenbanksprache“ heißt. Die Spalte der einen Tabelle steht mit der Spalte einer anderen Tabelle in Beziehung. Dabei besteht die Beziehung auch per Definition lediglich zwischen diesen beiden Spalten. Da diese Spalten aber in der Regel Teil einer Tabelle (Entität), stehen somit quasi beide Tabellen miteinander in Beziehung. Zu beachten ist dabei, dass die verknüpften Spalten „typgleich“ sein sollten, d.h. wenn z.B. die Spalte KundenNummer der Kundentabelle mit der Spalte KD einer Bestellungstabelle in Beziehung stehen soll, sollten beide Spalten von den Datenfeldtypen zusammenpassen, es sollte sich also bei beiden Spalten um Zahlenspalten handeln (wenn es denn Zahlenwerte sind) oder um Textspalten (kann auch gemischt sein). Grundsätzlich können zwar auch Zahlenspalten mit Textspalten verknüpft werden, das führt im Einzelfall allerdings zu Problemen.

Wozu werden Beziehungen verwendet?

Beziehungstyp 1:n: In den meisten Fällen ist sicher von einer 1:n-Beziehung auszugehen. Klassischerweise handelt es sich dabei um die Beziehung zwischen einer Tabelle mit sog. Stammdaten und einer Tabelle mit Bewegungsdaten. Als Beispiel kann das o.g. Kunden-Bestellungen-Verfahren genannt werden: Ein Kunde, der in der Kundentabelle aufgrund der eindeutigen Kundennummer nur einmal vorkommen kann, kann allerdings (mit seiner Kundennummer) in der Bestellungentabelle mehrfach in Erscheinung treten. Da in der Bestellungen-Tabelle in der Regel nicht auch noch alle Kundendaten gespeichert werden (sondern eben nur die Kundennummer) kann durch die Beziehung zur Kundentabelle aufgrund der eindeutigen Kundennummer auf die anderen Kundendaten „rückgeschlossen“ werden. Werden also nun Spalten beider Tabellen (Kundendaten und Bestellungen) in einer Auswertung verwendet UND es besteht eine Beziehung zwischen den beiden Kundennummern-Spalten, wird die Datenbeziehung gewährleistet, d.h. es werden die „korrekten“, bzw. die zusammengehörigen Daten selektiert bzw. zusammengestellt.

Beziehungstyp 1:1: In diesem Fall handelt es sich um die Beziehung zwischen zwei Stammdaten-Tabellen, die über die verknüpfte Spalte in jeder Tabelle eindeutige Werte führt. Beispiel: Eine Artikeltabelle mit eindeutiger Artikelnummer, die „alle“ Artikel umfasst und eine Artikeltabelle in der bestimmte Spezifikationen erfasst werden, die nur für eine Auswahl von Artikeln gespeichert wird (z.B. Artikel, die selber hergestellt werden oder auch das Gegenteil, Artikel die fremdbezogen werden).

In dem Register PowerPivot sollte die Beziehungserkennung eingestellt sein.

PowerPivot: DAX-Funktionen

Was und Wozu?

Die Verwendung von DAX-Funktionen (Data-Analysis Expression) ist auch bei komplexen Auswertungen nicht immer zwingend erforderlich. Auch in einer Excel-Pivottabelle steht Ihnen die Möglichkeit zur Verfügung Excel-Funktionen einzubauen. Die Nutzung von DAX-Funktionen, die auf der Powerpivot-Seite sowie als DAX-Measures in den Pivot-Tabellen zur Verfügung stehen, ähnelt komfortabelerweise in der Anwendung sehr den Excel-Funktionen, obwohl sie „technisch gesehen“ nicht in Excel stattfinden. Durch die Verwendung von DAX-Funktionen können allerdings Ergebnisse „vorbereitet“ werden, die dann bei der Erstellung eines Dashboards als „Datenergebnisse“ in Excel einfließen. Grundsätzlich gilt: Excel ist bei der Ermittlung von Funktionsergebnissen langsamer als Powerpivot. Besonders bei der Anbindung an größeren Datenbeständen (also mehr Zeilen, als Excel darstellen kann) ist die Nutzung von DAX-Funktionen daher sinnvoll bzw. unerlässlich (abgesehen davon, dass hier auch eine nennenswerte Anzahl von Datenbankähnlichen Funktionen zur Verfügung stehen, die Excel selber nicht kennt).


[1] ER-Modell: Entity-Relationship-Modell

Ein Beispiel für die Funktion SUMX: Powerpivot DAX-Funktion SUMX

CREATE │ databases

CREATE │ databases

Als entscheidenden Faktor sehe ich die projektbegleitende Kommunikation zwischen Ihnen und mir, um das zu entwickeln, was Sie wirklich benötigen.

In der Konzeption und Realisierung von Datenbanken und Anwendungen kann ich auf über 10 Jahre umfassende Entwicklungserfahrung in unterschiedlichsten Branchen verweisen – von einfachen Einzelplatzlösungen mit Access bis zu größeren Anwendungen mit einer Vielzahl von Benutzern über SQL-Server.

Schwerpunkte:

  • Problemanalyse und Projektplanung
  • Optimierung von Abläufen
  • Ausrichtung der Datenstrukturen auf Business Intelligence Analysis (ETL)
  • Entwicklung & Beratung / Datenbank-Umstellung und -anpassung
  • Erstellung von Reports und Dashboards
  • Einsatz aller Excel- & Access-Funktionen und Funktionalitäten über VBA-Programmierung
  • Datenkonsistenz / Datenverlässlichkeit,
  • (Re)aktivierung brachliegender Daten
  • Training, Support, Wartung

Die Erstellung von Pflichtenheften, Programmdokumentation und Handbüchern ist selbstverständlich.
Außerdem lege ich Wert auf eine regelmäßige Berichterstattung, somit sind Sie stets am Puls des Pjojektes.

SELECT │ dataset

SELECT │ dataset

Um aus Ihren Daten komplexere Auswertungen und daraus einen Mehrwert für das Unternehmen zu generieren, müssen diese Daten intelligent verbunden, systematisiert und ggf. bereinigt und aufbereitet werden. Moderne Analyseverfahren und grafische Aufbereitungen wie Tableau-Software oder mit den Möglichkeiten von Power-BI, die auf das Datenmaterial angewandt werden, erschließen Ihnen neue Interpretationsmöglichkeiten und Aspekte, die Sie für Ihr Unternehmen gewinnbringend einsetzen können. Ihre Vorteile bei der Verwendung von individuellen BI-Tools:

  • Interaktiver Überblick über Ihre Daten
  • Reduzierung der Auswertungszeiten
  • Aktualität der Daten
  • Regelmäßig aufbereitete Datenbestände durch Automatisierungsverfahren
  • Flexible Auswertungen nach beliebigen Kriterien
  • Routinen für aussagefähige betriebswirtschaftliche Statistiken
    (deskriptiv / analytisch)
  • Lesbare Zusammenfassungen / Diagramme

Als Verfahren werden u.a. angewendet

  •   Datenaufbereitung, -analyse und Datenbereinigung
  •   Data Blending (Datenverschmelzung)
  •   Datenselektierungen / (Vor-)Filterung / Sortierung aktueller und geschäftskritischer Daten
  •   Eliminierung und Vermeidung von Datenredundanzen
  •   Ermittlung von Ausreißern
  •   automatisierter Zugriff auf Datenbestände
  •   BI-Tools          ….und vor allem
  •   GMV (gesunder Menschenverstand)
IT TRAINING │UPDATE your employees

IT TRAINING │UPDATE your employees

Ich lege bei der Durchführung von Seminaren großen Wert auf Praxisbezug, praxisrelevante Beispiele in ausreichender Anzahl sowie hinreichend Zeit und Unterstützung bei Übungsbeispielen. Durch Erfahrungen im Schulungsbereich seit 1990 und jahrelanger Erfahrung in der Datenbankprogrammierung sowie Auswertungen unterschiedlichster Art und Branchen weiß ich, worauf es ankommt.

In vielen meiner Seminare setze ich die “Blended-Learning”-Methode bewusst und erfolgreich ein.
(Kombination von Präsenz- und e-learning-Elementen / WebCast / Trainings-Videos auf meinen Seminar-Websites)

Seminar-Themenliste:

  • Power-Query, Datenanalyse jenseits der Excel-Grenzen – Excel Power-BI – Business-Intelligence
  • Excel Automatisierung – VBA, Makros und Programmierung, Steuerelemente-Toolbox
  • Excel, die wesentlichen betriebswirtschaftlichen KPIs
  • Excel, Fortgeschrittene Funktionen und Funktionalitäten
  • Datenbank-Design und -Modellierung
  • Datenanalyse / Datenbereinigungsverfahren
  • Nur noch auf spezielle Anfrage:
    • Access Grundlagen der Datenbank-Logik, Programmaufbau und -struktur
    • Access Makros und Programmierung mit VBA Access
controlling │ development │ database

controlling │ development │ database

Schon klein- und mittelständische Unternehmen müssen heute Herausforderungen von Großunternehmen bewältigen ohne dabei auf kostenintensive Lösungen (Software-”Großbaustellen”) zurückgreifen zu können oder zu wollen. Ich unterstütze Sie bei Ihrer Daten-Analyse, der Entwicklung von Analyseverfahren sowie Aufbau & Anpassung von Datenbanken & -strukturen.

let’s SELECT!