Gute Seiten, schlechte Seiten

Gute Seiten, schlechte Seiten

Kunst kommt von „können“? Ansichtssache. Und Präsentieren kommt von praesentia. Und das heißt Gegenwart. Eine Präsentation soll also etwas vergegenwärtigen. Und dazu werden gerne Infografiken eingesetzt.

In der großen Welt der Datenkonsolidierung und -reduktion mit dem Ziel einer vereinfachten Aussage führt das durchaus schon mal zu Missverständnissen. Bei Seminaren mache ich mitunter die Erfahrung, dass Mitarbeiter für ihre Vorgesetzten aus einem nennenswerten Datenberg zu einer „Ampel-Aussage“ gelangen sollen. Das heißt, dass mitunter gigantische Datenabzüge aus unterschiedlichen Quellen zu der Aussage „gut“ oder z.B. „schlecht“ führen soll, dargestellt in ROT, GELB oder bestenfalls bzw. wünschenswerterweise GRÜN. Jeder, der schon mal mit dem Problem der Zusammenführung von Daten befasst war, weiß, dass, mal abgesehen von dem Problem der Datenbereinigung, noch weitere „Unwägbarkeiten“ das Ergebnis „beeinflussen“ können. Das gewünschte Ampel-Resultat ist zwar für eine Entscheidungsinstanz nicht gänzlich unverständlich, aber vielleicht doch etwas zu sehr simplifiziert, und genau da lassen sich wunderbar die in Mode gekommenen Infografiken einsetzen.

Bei Infografiken handelt es sich um ein Mittel, auf unterschiedliche und manchmal recht „überraschende Weise“, einen komplexen Sachverhalt einem Laien verständlich zu machen. Die Daten-Verdichtung durch Diagramme ist zweckmäßig, aber häufig langweilig und insbesondere durchaus bestens für Manipulationen geeignet. Infografiken eignen sich durchaus sogar noch besser für Manipulationen, aber im Gegensatz zu Diagrammen und den ewigen Powerpoint-Präsentationen, die seriös daherzukommen versuchen und manchmal schon deshalb für Misstrauen sorgen, ist der „Sinn“ der Darstellung über eine Infografik in ihrer gesamten „Theatralik“ erkennbarer und erreicht somit eine andere Form der Akzeptanz.

Im folgenden möchte ich ein paar Beispiele benennen, die ich nach meinem persönlichen Empfingen für gelungen bzw. weniger gelungen halte.

1. Sehr gelungen:  STOCK-CHECK: http://visual.ly/remaining-oil-gas-coal
Grund: einfach gehalten, schon bei oberflächlichem Hinsehen erschließt sich die Aussage. Einsatz weniger Farben und weniger Symbole. Kein ablenkender Hintergrund. Wenige, deutlich erkennbare Zahlenwerte. Drei kleine integriert Diagramme, zudem eine Weltkarte mit gut erkennbarer Verteilung. Weiterhin Angabe von Quellen am Ende der Grafik

2. Weniger gelungen: EVOLUTION OF SMOKING: http://visual.ly/evolution-smoking
Grund: Zu dicht, unklare Datenlage (keine Quellenangabe), zu sehr überladen mit unterschiedlichen Stilmitteln, unruhige Erscheinung des Gesamtbildes. Ablenkender Hintergrund (sinnfreier Farbverlauf)

3. Ebenfalls weniger gelungen: FACEBOOK-IPO: http://visual.ly/facebook-ipo-0
Grund:  Der Sinn dieser Grafik erschließt sich erst nach mind. zweimaligem Hinsehen. Farbgebung uneinheitlich und unklar (warum zwei Blau-Töne und dann plötzlich lila?). Allerdings gibt es einen Hinweis auf die Datenlage.

4. Ganz anders hingegen hier wieder ein gut gelungenes Beispiel: THE GULF OF MEXICO OIL SPILL:   http://visual.ly/gulf-mexico-oil-spill
Grund: einfach und transparent, Passender farblicher Hintergrund, klar in den Symbolen und der Aussage, auch die Datenquelle wurde nicht vergessen. Kleines Manko: recht kleine Schrift.

5. Ein weiteres interessantes und im Prinzip gut gemachtes Beispiel: COFFEE & CALORIES: http://www.informationisbeautiful.net/visualizations/caffeine-and-calories/
Grund: klare Aufteilung, bedarf  aber einen Moment der Orientierung insbesondere müssen die Skalen erst einmal „entdeckt“ werden. Leider bleibt die Datenlage hier etwas unklar (abgesehen von dem Verweis auf  Hersteller und Vertrieb).

6. Gute Idee, aber…: COLORS IN CULTURES: http://www.informationisbeautiful.net/visualizations/colours-in-cultures/
Grund: interessant gemacht, aber leider keine durchgehende Linienführung. Nachteil: versuchen Sie z.B. mal herauszufinden, welche Farbe in China für peace steht.

7. Immerhin klare Aussage: WENIGE LEISTEN SICH VIEL: http://www.agenda21-treffpunkt.de/archiv/04/10/DWHHkonsum-g.jpg
Grund: Gute gemachte Gegenüberstellung. Aussage ist eindeutig. Datenlage bleibt aber „Vertrauenssache“. Hintergrundfarbe scheint der Sichtbarkeit des Inhaltes geschuldet, grauer Balken steht nicht im Kontext zum Inhalt.

8. Klasse (einer meiner persönlichen „TOPs“): Wirtschalftsdaten sichtbar gemacht: Die Schokolandenseite: http://images.zeit.de/wissen/2009-12/41-infografik-schokolade.pdf
Grund: Schon am Bild sofort erkennbar um was es geht; die „Bruchstücke“ im erkennbaren relativen Verhältnis; keine verwirrenden und unnötiten Elemente in der Grafik; Quellenangabe vorhanden

Und hier die ultimative „Mutter aller Infografiken“ 😉 :

xl-dataCleaner, das Datenbereinigungs-Add-In

xl-dataCleaner, das Datenbereinigungs-Add-In

Zwischen ‘Daten’ und ‘Auswertung’ liegt oftmals das Problem der Datenbereinigung (auch Datenreinigung bzw. Data-Cleansing genannt), also der Weg, bzw. die Methode, bestehendes Datenmaterial auf Inkonsistenzen zu untersuchen, in eine homogene Datenbasis zu überführen und auf einen auswertbaren Stand zu bringen. Die Bereinigung ist oftmals aufwändig und erfordert hohe Aufmerksamkeit sowie detaillierte strukturelle Kenntnisse der Datenbasis.
Manche der Datenbereinigungsaufgaben lassen sich automatisieren, manch andere  sind derart ‘speziell’, also unternehmens- bzw. themenbezogen, dass es kaum möglich ist, diese Aufgaben zu standardisieren.

Das Datenbereinigungstool xl-dataCleaner für Excel widmet sich den automatisierbaren Datenbereinigungsproblemen, die in der täglichen Praxis immer wieder auffallen.

xl-dataCleaner, Download bei heise

Besonders in den Fällen, bei denen aus verfahrenstechnischen Gründen in regelmäßigen Intervallen Daten aus unterschiedlicher Herkunft eingespielt werden müssen (SAP, AS-400, SQL-Server oder sonstigen Datenquellen, als .csv, .txt, .xls, .dbf oder anderen Dateitypen) lohnt sich der Einsatz eines automatisierten Tools, das immer wiederkehrende Vorgänge bei der Abgleichung oder Bereinigung von Daten extrem beschleunigen kann und somit zu einer signifikanten Zeit- und Kosten-Ersparnis führt. Weiterhin wird durch die Automatisierung die Datensicherheit gewährleistet, da Ihnen bei Abgleichen, die ‘händisch’ oder ‘per Sichtung’ vorgenommen werden, zwangsläufig Fehler unterlaufen

Bei allen Automatisierungsvorteilen erfordert eine Datenbereinigung sehr hohe Aufmerksamkeit und recht detaillierte Kenntnisse über die Daten hinsichtlich der Struktur und des Aufbaus und auch (bis zu einem gewissen Grad) inhaltlich.Beachten Sie bitte weiterhin, dass alle Änderungen, die von xl-dataCleaner vorgenommen werden (also z.B. Löschen von doppelten Zeilen)  NICHT RÜCKGÄNGIG gemacht werden können, also die ‘Rückgängig’-Funktionalität von Excel nach Ablauf dieser Funktionen nicht zur Verfügung steht. Testen Sie die Abläufe ggf. auf einer Datenkopie.

Hinweis:

Nach dem Öffnen oder einbinden der XLA(M)-Datei sollten die
xl-dataCleaner-Symbolleiste XP/2003 bzw. Symbolleiste 2007
erscheinen.

VOR dem Start der einzelnen Funktionen bzw. dahinterliegender Makros muss der Zellzeiger auf die gewünschte Spaltenüberschrift-Zelle gesetzt werden (Ausnahme: Inkonsistenzen-Check).

Zu Ihrer Information: Makro-Viren

Was sind Makro-Viren?
Mit der Programmiersprache VBA (auch Excel-VBA) besteht die Möglichkeit, auf  Elemente des Betriebssystems oder anderer installierter Programme zuzugreifen (z.B. Outlook). Auf diesem Wege können kleine oder auch größere Programme bzw. Programmteile über einen Makro „eingeschleust“ werden, die auf Ihren Computer Schaden anrichten. Bei Ausführen bzw. Starten von Makros unbekannter Herkunft besteht somit grundsätzlich eine Gefahr.

Die Makros von XL-dataCleaner wurden ohne die Verwendung von API oder ActiveX-Elementen in VBA programmiert und können bedenkenlos verwendet werden, da bei der Programmierung ausschließlich auf Excel-VBA-Funktionen und Funktionalitäten zurückgegriffen wurde.

Wie gut, dass niemand weiss…

…wo in meinen Daten die Informationen stecken. Naja, Spaß beiseite. Im Grunde handelt es sich um ein Ärgernis, das in allen Unternehmen von klein bis groß anzutreffen ist. Mitarbeiter kämpfen sich durch gigantische Ordnerstrukturen und verstecken dort Ihre Daten. Zwar sind natürlich (fast) alle Unternehmen in irgendeiner Weise zertifiziert, auch die Informationsstrukturen sind im Grunde zumeist definiert (Stichwort ISO9000soundsoviel).

Aber: Theorie ist ISO, Praxis ist Excel.

Der Klassiker: Auswertungsdaten werden in Excel-Arbeitsmappen nach Jahren, je bestehend aus 12 Tabellenblättern (von Januar bis Dezember) auseinandergerissen. War das noch zu XLS-Zeiten zweckmäßig, ist das seit XLSX nicht mehr begründbar. In XLS-Dateien konnten lediglich 65.536 Zeilen abgebildet werden, in der XLSX-Variante 1.048.576, das ist immerhin 16 mal so viel. Aber man gewöhnt sich an das Verfahren, dabei wäre es kein großer Aufwand, die Daten (auch jahresübergreifend) zusammenzufassen. Auch die Mächtigkeit der immerhin kostenlosen Power-BI-Add-Ins Powerpivot und Power-Query (ab V.2010) sowie Power-View und  Power-Map (ab V.2013) hat sich in den Unternehmen noch nicht sonderlich herumgesprochen.

Oder: Es werden Duplikate und erhebliche Redundanzen mit nennenswerten Anomalien geführt; Motto: „in meiner Kundentabelle wohnt Firma Müller GmbH in Heidelberg und nicht in Stuttgart“ bzw. „die ABC-Membran hat in meiner Liste die Artikelnummer WA4711 und noch nicht die aktualisierte Nr. WA4711H“. Im günstigsten Fall werden diese Redundanzen mit einem Dateinamen-Präfix á la „20150402-Produktdaten“ geführt um eine Historie zu begründen.

Sind die Daten schlecht gepflegt, drohen falsche Abrechnungen und Auswertungen. Überhaupt besteht bei Auswertungen meiner Erfahrung nach eine erstaunliche „Gläubigkeit“ an die Korrektheit der Datenbasis.

Die Datenqualität leidet erheblich, die Informationen „ver-dschungeln“ sukzessiv, die Zusammenführung ist oft sehr problematisch. Lt. Computerwoche (data-expert-lounge) büßen Unternehmen bis zu 25 Prozent ihres operativen Gewinns in Folge schlechter Datenqualität (DQ) ein [http://www.computerwoche.de/software/bi-ecm/1938325/]. Lt. Forrester-Umfrage „Trends In Data Quality And Business Process Alignment“, unter großen US-Unternehmen, ist 18 Prozent der befragten Unternehmen das Zusammenspiel von Business Process Management (BPM) und Datenqualität nicht bewusst. Es handelt sich eben nicht um ein „nice-to-have“-Thema, wird aber teils noch immer so gesehen! Unter Business-Intelligence (BI) stellt man in der Regel hochgezüchtete Softwaresysteme vor, aber auch das muss nicht unbedingt sein, denn wie lautet das Ziel von BI? Ganz einfach: Die (möglichst verlässliche) Ermittlung von Kennzahlen. Es ist nicht immer gleich zwingend erforderlich eine hochkomplexe Software zu entwickeln oder zu erwerben mit der man zum Mond reisen könnte obwohl noch nicht mal die Absicht besteht die Erdatmosphäre zu verlassen, sondern lediglich auf einen Hügel zu steigen um die Übersicht zu bewahren.

In wenigen Schritten zur Lösung:

  • Zuallererst: Eine Daten-SICHTUNG und Bewertung (welche Daten liegen in meinem Unternehmen überhaupt vor), Prüfung nach Relevanz und Aktualität (gute Daten / schlechte Daten)
  • Die Bereinigung der Daten: Duplikate raus und überprüfen auf Korrektheit, ggf. vervollständigen und abgleichen der Daten – Stichwort „Datenhygiene“. Dieser Punkt ist leider oftmals mit etwas zeitlichem Aufwand verbunden.
  • Die Zusammenführung wesentlicher Daten unter einheitlichen Strukturen
  • Die klare Trennung von Stammdaten und Bewegungsdaten (SEHR wichtig!!!)
  • Eine klare Ablage- und Sicherungsdefinition der Daten
  • Die eindeutige Kennzeichnung von Sicherungen und
  • Eine klare Zuständigkeitsdefinition: wer darf was ändern/anfügen/löschen – und trägt somit die Verantwortung für Korrektheit und Aktualität der Daten    sowie
  • Die Ermöglichung von Daten-Verknüpfungen

Die Einhaltung dieser Punkte (oder Teile davon) würde bereits eine erhebliche Qualitätssteigerung gewährleisten. Natürlich macht sich das alles nicht von selbst. Je „chaotisierter“ die Datenbasis, desto aufwändiger ist zunächst die Bereinigung, aber desto deutlicher ist auch der schon bald spürbare Effekt.

„Data-Quality-Management“ wird (zu Recht) häufig mit „Data-Mining“ in Verbindung gebracht. Unter diesem Stichwort werden wiederum teure Programme und Tools angeboten. Für Excel wird ein ebenfalls kostenloses Data-Mining-Tool als Add-In angeboten. Das Data-Mining-Verfahren kann allerdings auch ohne den Einsatz von Software erfolgen. Der o.g. Punkt „Daten-Sichtung und Bewertung“ ist im Grunde bereits Data-Mining und erfordert oft nur ein hinreichendes Verständnis für Daten und Datenstrukturen und eine möglichst auf Erfahrung basierende Analysefähigkeit.

Fazit: Nichts gegen Excel (und andere Desktop-Tools), ganz im Gegenteil. Nutzen Sie Excel – aber nutzen Sie es auch. Professionell! Versetzen Sie Ihre Mitarbeiter in die Lage, die Möglichkeiten (auch die neuen Möglichkeiten) zu nutzen (Stichwort Schulung). Und: Holen Sie sich ggf. Unterstützung.