Wie gut, dass niemand weiss…

…wo in meinen Daten die Informationen stecken. Naja, Spaß beiseite. Im Grunde handelt es sich um ein Ärgernis, das in allen Unternehmen von klein bis groß anzutreffen ist. Mitarbeiter kämpfen sich durch gigantische Ordnerstrukturen und verstecken dort Ihre Daten. Zwar sind natürlich (fast) alle Unternehmen in irgendeiner Weise zertifiziert, auch die Informationsstrukturen sind im Grunde zumeist definiert (Stichwort ISO9000soundsoviel).

Aber: Theorie ist ISO, Praxis ist Excel.

Der Klassiker: Auswertungsdaten werden in Excel-Arbeitsmappen nach Jahren, je bestehend aus 12 Tabellenblättern (von Januar bis Dezember) auseinandergerissen. War das noch zu XLS-Zeiten zweckmäßig, ist das seit XLSX nicht mehr begründbar. In XLS-Dateien konnten lediglich 65.536 Zeilen abgebildet werden, in der XLSX-Variante 1.048.576, das ist immerhin 16 mal so viel. Aber man gewöhnt sich an das Verfahren, dabei wäre es kein großer Aufwand, die Daten (auch jahresübergreifend) zusammenzufassen. Auch die Mächtigkeit der immerhin kostenlosen Power-BI-Add-Ins Powerpivot und Power-Query (ab V.2010) sowie Power-View und  Power-Map (ab V.2013) hat sich in den Unternehmen noch nicht sonderlich herumgesprochen.

Oder: Es werden Duplikate und erhebliche Redundanzen mit nennenswerten Anomalien geführt; Motto: „in meiner Kundentabelle wohnt Firma Müller GmbH in Heidelberg und nicht in Stuttgart“ bzw. „die ABC-Membran hat in meiner Liste die Artikelnummer WA4711 und noch nicht die aktualisierte Nr. WA4711H“. Im günstigsten Fall werden diese Redundanzen mit einem Dateinamen-Präfix á la „20150402-Produktdaten“ geführt um eine Historie zu begründen.

Sind die Daten schlecht gepflegt, drohen falsche Abrechnungen und Auswertungen. Überhaupt besteht bei Auswertungen meiner Erfahrung nach eine erstaunliche „Gläubigkeit“ an die Korrektheit der Datenbasis.

Die Datenqualität leidet erheblich, die Informationen „ver-dschungeln“ sukzessiv, die Zusammenführung ist oft sehr problematisch. Lt. Computerwoche (data-expert-lounge) büßen Unternehmen bis zu 25 Prozent ihres operativen Gewinns in Folge schlechter Datenqualität (DQ) ein [http://www.computerwoche.de/software/bi-ecm/1938325/]. Lt. Forrester-Umfrage „Trends In Data Quality And Business Process Alignment“, unter großen US-Unternehmen, ist 18 Prozent der befragten Unternehmen das Zusammenspiel von Business Process Management (BPM) und Datenqualität nicht bewusst. Es handelt sich eben nicht um ein „nice-to-have“-Thema, wird aber teils noch immer so gesehen! Unter Business-Intelligence (BI) stellt man in der Regel hochgezüchtete Softwaresysteme vor, aber auch das muss nicht unbedingt sein, denn wie lautet das Ziel von BI? Ganz einfach: Die (möglichst verlässliche) Ermittlung von Kennzahlen. Es ist nicht immer gleich zwingend erforderlich eine hochkomplexe Software zu entwickeln oder zu erwerben mit der man zum Mond reisen könnte obwohl noch nicht mal die Absicht besteht die Erdatmosphäre zu verlassen, sondern lediglich auf einen Hügel zu steigen um die Übersicht zu bewahren.

In wenigen Schritten zur Lösung:

  • Zuallererst: Eine Daten-SICHTUNG und Bewertung (welche Daten liegen in meinem Unternehmen überhaupt vor), Prüfung nach Relevanz und Aktualität (gute Daten / schlechte Daten)
  • Die Bereinigung der Daten: Duplikate raus und überprüfen auf Korrektheit, ggf. vervollständigen und abgleichen der Daten – Stichwort „Datenhygiene“. Dieser Punkt ist leider oftmals mit etwas zeitlichem Aufwand verbunden.
  • Die Zusammenführung wesentlicher Daten unter einheitlichen Strukturen
  • Die klare Trennung von Stammdaten und Bewegungsdaten (SEHR wichtig!!!)
  • Eine klare Ablage- und Sicherungsdefinition der Daten
  • Die eindeutige Kennzeichnung von Sicherungen und
  • Eine klare Zuständigkeitsdefinition: wer darf was ändern/anfügen/löschen – und trägt somit die Verantwortung für Korrektheit und Aktualität der Daten    sowie
  • Die Ermöglichung von Daten-Verknüpfungen

Die Einhaltung dieser Punkte (oder Teile davon) würde bereits eine erhebliche Qualitätssteigerung gewährleisten. Natürlich macht sich das alles nicht von selbst. Je „chaotisierter“ die Datenbasis, desto aufwändiger ist zunächst die Bereinigung, aber desto deutlicher ist auch der schon bald spürbare Effekt.

„Data-Quality-Management“ wird (zu Recht) häufig mit „Data-Mining“ in Verbindung gebracht. Unter diesem Stichwort werden wiederum teure Programme und Tools angeboten. Für Excel wird ein ebenfalls kostenloses Data-Mining-Tool als Add-In angeboten. Das Data-Mining-Verfahren kann allerdings auch ohne den Einsatz von Software erfolgen. Der o.g. Punkt „Daten-Sichtung und Bewertung“ ist im Grunde bereits Data-Mining und erfordert oft nur ein hinreichendes Verständnis für Daten und Datenstrukturen und eine möglichst auf Erfahrung basierende Analysefähigkeit.

Fazit: Nichts gegen Excel (und andere Desktop-Tools), ganz im Gegenteil. Nutzen Sie Excel – aber nutzen Sie es auch. Professionell! Versetzen Sie Ihre Mitarbeiter in die Lage, die Möglichkeiten (auch die neuen Möglichkeiten) zu nutzen (Stichwort Schulung). Und: Holen Sie sich ggf. Unterstützung.

Zum Scheitern verurteilt?

Zum Scheitern verurteilt?

Hier einige Punkte, die nach meiner Erfahrung ein Projekt (zumeist unnötig) zum Scheitern bringen können:

  • Zu allererst: Der Rohrkrepierer (der „Klassiker“ sozusagen): In einer Gruppe / Abteilung / Firma entsteht eine Idee, die ein neues Produkt, Projekt mitunter aus einem „brainstorm“ heraus gebiert (nicht selten in der berühmten Kaffee-Pause). In den meisten Fällen bleibt es bei der Idee, eine  Weiterverfolgung scheitert (vermeintlich) an Zeit, Geld und an dem Vertrauen, dass die Idee etwas „wert sei“ und ein hinreichendes Interesse – und hinreichende Unterstützung – besteht, Innovation zu fördern.
  • Schlechte / unzureichende Finanz- und Ressourcenplanung: Manche Projekte starten mit einem nicht hinreichend durchgeplanten Ziel (personeller Einsatz, Bereitstellung von geldlichen Mitteln), das betrifft zum einen das zeitliche als auch das personelle und inhaltliche Ziel. In  manchen Fällen ist das auch nicht im Vorfeld auf den Punkt genau zu definieren, wenn allerdings unterwegs die Luft ausgeht, kann das (mitunter auch kurz vor Erreichen des Ziels) zum Abbruch führen.
  • Der Unfall: Ein Projekt wird aufgrund eines unvorhersehbaren Ereignisses abgebrochen, z.B. Softwaresteuerung für ein bestimmtes Produkt, das aus unterschiedlichen Gründen aus der „Palette“ entfernt wird/werden muss
  • Der Feind des Projektes: In manchen Fällen wird seitens einer Abteilung ohne hinreichende Rücksprache mit einer „durchführenden Instanz“ ein Ziel definiert, dass von Seiten der Hauptverantwortlichen (oder einer „übergeordneten Instanz“) nicht nur „nicht-unterstützt“ sondern aktiv bekämpft wird.

Beispiel:

-Erstellung einer Anwendung mit einer Software, die von der IT-Abteilung nicht gewünscht wird.
-Erstellung einer Software, die Personaldaten mit einbezieht ohne hinreichende Rücksprache mit dem Betriebsrat oder dem verantwortlichen Datenschutzbeauftragten

  • Akzeptanzprobleme: Durchführung eines Projektes z.B. im Software-Bereich, das für den Anwender nicht akzeptiert wird weil u.a. die inhaltliche und abstimmende Rücksprache mit den betreffenden Personen fehlt(e) und das  Personal nach Fertigstellung ein Produkt „vor die Füße geworfen“ bekommt, dass nicht in jedem Fall den organisatorischen Ablauf widerspiegelt.
  • Persönliche Animositäten im Projekt beteiligter Personen (die „Männerfeindschaft“ – wahlweise auch die Frauenfeindschaft). Der oder die Beauftragende wird von einem Kollegen/Kollegin (oder Vorgesetzten) im Projekt derart behindert, bis das Projekt als gescheitert gilt. Beispielsweise  werden immer neue Anforderungen an das Projekt gestellt, die immer wieder erneute Kosten entstehen lassen oder gar technisch nicht umsetzbar sind mit der Folge, dass das Projekt als nicht-mehr-zielführend oder unfinanzierbar gilt. Mitunter wird dann sogar auf ein „altes“ System zurückgeschaltet – und das vielleicht nur, um dem Kollegen eines „auszuwischen“ und dem die entstandenen Kosten vorzuhalten bzw. sein Budget zu verpulvern.

Schon der erste genannte Punkt lässt sich häufiger als gedacht vermeiden. So sind mir Beispiele bekannt, bei denen Mitarbeiter aus eigenem Antrieb eine kleine Software, beispielsweise eine kleine Datenbank oder einen (zunächst) kleinen Makro erstellen, mit der sich eine häufig wiederkehrende Aufgabe deutlich schneller und zuverlässiger erledigen lässt. Nach nur wenigen Wochen stellt sich der eigentliche „Wert“ dieser dann weiter verfeinerten Anwendung heraus die ich später (mit Unterstützung der Fachabteilung) professionell weiterentwickeln und in die Umgebung des Unternehmens fest installiert konnte.

Also: Nur Mut!

Verdammt lang her…

Verdammt lang her, dass ich mein erstes Programm in BASIC geschrieben habe. Das fand damals noch auf einem XT statt, ein Rechnermodell, das heute kaum noch im Museum zu finden ist. Der Code war zeilenorientiert, wurde in einer Shell eingetippt und direkt vom allbeherrschenden Betriebssystem interpretiert. Sollte ein „Makro“ geschrieben werden (was damals durchaus noch nicht so genannt wurde), musste eine Datei umständlich angelegt werden. Dafür stand ein umständlicher Editor zur Verfügung, wer den nicht hatte, konnte den nicht etwa „downloaden“ sondern musste den über Diskette einspielen. Von der schon bald aufkommenden Virenproblematik (die sich anfangs ja noch als geradezu niedlich darstellte, gemessen an heutigen Vorstellungen) möchte ich hier gar nicht sprechen. Ansonsten: 5 ¼-Zoll, DS DD (also double-sided, double density!) das war echter Fortschritt , eine Festplatte war nicht zwingend vorgesehen..

die gute, alte Diskette (möge sie in Frieden ruhen)

Auch Batch-files wurden auf „recht bemerkenswerte Weise“ erstellt, aber immerhin, somit konnten System-Befehle in Serie ausgeführt werden, noch der Begriff „autoexec“ rührt aus dieser Zeit.

Programme werden natürlich seit längerem etwas anders erstellt, für Codierungsprobleme gibt es schon lange Foren. Ohne Internet ist ein Rechner eh halbwegs sinnfrei geworden. Die Programmierung zielt seit Jahren darauf ab, dem Anwender die Erstellung immer weiter zu erleichtern. „Intuitive“ Programmbedienung steht auf dem Lehrplan, das gilt auch für Anwendungsprogrammierung.

Insgesamt muss ich aber konstatieren, dass Programmiersprachen und Entwicklungsumgebungen noch ewig davon entfernt sind den Eindruck zu erwecken, dass Software für Menschen gemacht ist und nicht etwas umgekehrt. Wenn ich mit da beispielsweise VB bzw. VBA vor Augen führe, ist es insgesamt doch noch eine enorme Zappelei und erfordert lange und ausdauernde Erfahrung, bis ein Programm lauffähig und sicher(!) ist. „Ich schreibe mal eben ein Tool“ ist einfach noch immer nicht drin. Auch die Funktions-Sprache von Excel , die durchaus als fortgeschritten gelten darf, ist noch weit davon entfernt, als „intuitv“ bezeichnet werden zu können.

Wer schon mal eine Datenbank konstruiert und erstellt hat, weiß, dass strukturelle Überlegungen und Umsetzungen ohne SQL-Kenntnisse problematisch sind. Nun gibt es Quasi-Clone, die Funktions-Sprech mit SQL für BI-Tools verbindet und ebenfalls als Funktion(en) zur Verfügung stellen. Als Beispiel sei hier die DAX-Funktionssprache von Powerpivot genannt. Um diese Funktionen nun zielgerecht anzuwenden, muss ich mich nun nicht etwa nicht mehr in SQL und Datenbank-Theorie und -Terminologie auskennen, sondern ich muss die Funktionsweise in Parametern pressen und ausrücken. Bei Seminaren stelle ich fest, dass es nicht ganz einfach ist, das einem Excel-Anwender „beizubiegen“ und dabei nicht allzu sehr auf Datenbanktheorie auszuweichen. Und insgesamt kommt es mir so vor, als wenn ich immer noch an meinem ersten BASIC-Programm schreibe. Allzu viel hat sich im Grunde noch nicht wirklich getan in dem Versuch, Software für Menschen zu machen.

Hoch damit – „Monitoring“ einmal anders

Hoch damit – „Monitoring“ einmal anders

In der IT-Branche ist es durchaus nicht unüblich, dass man sich stundenlang vor dem Monitor konzentriert. Die Ausarbeitung von Abläufen, die Umsetzung in Webseiten, Codezeilen,  Auswertungen, Dashboards, SQL-Queries etc. erfordern „Sitzfleisch“.

Vor einigen Jahren hatte ich in meinem Büro einen angesehenen Physiotherapeuten zu Gast, da er ein Rechnungsauswertungstool für seine Praxis benötigte, und sich damit vertrauensvoll an mich wendete. Er sah mir eine Zeitlang bei der Umsetzung seiner Vorstellungen zu diesem Thema „über die Schulter“ und sagte dann: „wissen Sie, wie Sie da sitzen?“ Mit einer „dezenten“, aber angekündigten Übertreibung, nahm er eine Körperhaltung an, die ich schon mal im Zoo bei den Affen gesehen habe.

Ich bin nun durchaus nicht unsportlich oder „unbewusst“. Auch begehe ich jeden Morgen mit etwas Gymnastik, aber das brachte mich doch zum schmunzeln. Ich fühlte mich sogar bis zu einem gewissen Grad „erwischt“, denn an manchen Tagen kenne ich durchaus auch das Gefühl von Nackenverspannungen (oder Schlimmeres).

„Stellen Sie Ihren Monitor höher! Mindestens in etwa auf Augenhöhe“.

Schon mal was von Arbeitsplatz-Ergonomie gehört? Haben Sie sicher. Ich auch. Das Thema nehme ich auch sehr ernst. Zumindest wenn ich darüber lese. Ich bin seinerzeit diesem Rat des Physiotherapeuten unverzüglich und nachhaltig gefolgt und habe den Effekt auch unverzüglich (und nachhaltig!) verspürt!

Kürzlich kam ich mit einer Kollegin in’s Gespräch, sie klagte über Nackenverspannungen und ich erzählte ihr von diesem denkwürdigen Ereignis.

Hoch damit! Ich kann es nur bestätigen. Wenn Sie mit einem Notebook arbeiten, legen Sie etwas wie z.B. ein Buch unter das Gerät um es hinten etwas anzuheben –  oder auch etwas mehr. Ich kann es Ihnen wirklich empfehlen. Oder besser noch: Schaffen Sie sich einen zusätzlichen, separaten Monitor an und richten Sie diesen „mit sich auf Augenhöhe“ aus. Es zahlt sich aus. Auch in den Arztrechnungen. Und auch in der Konzentration. Und auch im Gesamtempfinden!

von der Menschwerdung bis zum Notebook

Pettersson und der große Crash

Kennen Sie Pettersson und Findus? Wenn nicht, Ihre Kinder kennen die Geschichten bestimmt. Schauen Sie sich evtl. mal „Die Geburtstagstorte“ an. Es geht in dieser Geschichte darum, dass Pettersson seinem Kater eine Geburtstagstorte backen möchte und dazu Mehl zu kaufen beabsichtigt. Aus diesem Anlass müsste er in’s Dorf fahren, das klappt aber leider nicht, weil das Fahrrad platt ist. Daher muss er in den Schuppen um Werkzeug zu holen um das Rad zu reparieren. Leider ist der Schlüssel in den Brunnen gefallen und er benötigt eine Angel. Die ist leider auf dem Dachboden des Schuppens und dazu benötigt er eine Leiter, auf dieser hält aber leider gerade der Stier ein Nickerchen und um diesen wegzulocken ist das Grammophon zu reparieren o.ä. und anschließend ist wieder ein gewisser Aufwand erforderlich und so weiter und so fort.

Es geht dann also in dieser Geschichte unentwegt darum, ein aktuell anstehendes n-verschachteltes Problem zu lösen und dabei aber das Gesamt-Ziel nicht aus den Augen zu verlieren, nämlich, falls das in Vergessenheit geraten sein sollte, eine Geburtstagstorte zu backen.

DAU Jones versteht die Welt nicht mehr

Wenn ich die immer verschachtelter werdenden Wirtschafts-News verfolge, insbesondere unter Berücksichtigung der Börsen-Ticker, und dabei Nachrichten von Derivaten auf Derivate und Leerverkaufsverboten, Optionsscheinen und besonderen Termingeschäften, Futures, Forwards und Kassa, Hedge-Fonds und die teils erstaunlichsten Wetten auf Wetten etc. in dichter Folge verabreicht bekomme, verdichtet sich bei mir im Einzelfall der Eindruck, dass Pettersson das Ziel aus den Augen verloren zu haben scheint. In der n-hoch3-fachen Verschachtelungstiefe und der m-abweichenden Problematik ist möglicherweise verloren gegangen, um was es „eigentlich“ geht (was auch in dem Kino-Film „der Große Crash“ recht eindrucksvoll zum Ausdruck kommt). So manche (teils selbsternannten) Fachleute, die ich dann gelegentlich gerne mal nach Details befrage, sind nicht immer wirklich ausnahmslos in der Lage, das Problem für mich nachvollziehbar darzustellen.

Vor einigen Jahren, kam mir ein Satz zu Ohren, dessen Weisheit sich mir einprägte: „Wer nicht in der Lage ist, ein noch-so-komplexes Problem einem Laien in wenigen Sätzen begreifbar darzustellen, hat das Problem selber vermutlich nicht verstanden“. So weit möchte ich nicht in jedem Fall gehen.

Seit Jahren bin ich als Trainer tätig und immer, wenn in einem meiner Seminare ein Teilnehmer etwas nicht begriffen oder den Faden verloren hat (was bei komplexen Themen durchaus schon mal vorkommen kann), erinnere ich mich an diesen Satz und konzentriere mich darauf, zunächst zu erläutern, um „was“ es inhaltlich (zunächst also nicht „technisch“!) geht. Ggf. ist es erforderlich, das Seminarthema dazu temporär zu verlassen und die Problematik noch mal ganz anders anzugehen und anzudenken. In der Regel gelingt es dann auch wieder zum Thema zurückzufinden.

Auch in der Anwendung von Programmen, der Verwendung von Funktionen, dem Aufbau komplexer Dashboards und der Erstellung von zig Code-Zeilen dringt man schon mal in Bereiche vor, die einen nötigen, Funktionen zum funktionieren zu bringen, damit weitere davon abhängende Prozeduren an’s Laufen kommen, die erforderlich sind, um weitere Funktionen zu starten, die andere Prozeduren starten etc. pp.

Pettersson ist also dabei das Grammophon zu reparieren um den Stier zu verjagen, soll heißen: in einer n-fachen Verschachtelungstiefe kann sich durchaus das Gespür für das Gesamtproblem verflüchtigen.

Man muss also stets darauf achten, dass am Ende auch wirklich eine Geburtstagstorte dabei herauskommt :-D.

Die Suchtmaschine

Gerade wurde ausgiebig über das Thema Internetsucht debattiert (auch ohne dass dieser Begriff  genauer definiert oder wissenschaftlich hinreichend beleuchtet wurde). Bei Twitter wurden dazu im Sekundentakt Tweets veröffentlicht. Jetzt ist die Suchtmachine Google 10 Jahre alt geworden und es zeigt sich, dass eine seinerzeit als „nicht unbedingt erforderlich“  eingeschätzte Maschine (schließlich gab es ja bereits einige große Suchmaschinen) nicht nur den Such-Markt, sondern „den Markt an sich“ beherrscht.

Unter SEO kann folgendes verstanden werden: WIE gestalte und optimiere ich meinen Internetauftritt derart, dass die Firma Google Suchergebnisse an den Anwender so zurückgibt, dass die Wahrscheindlichkeit, dass „meine“ Seite dabei auf der ersten Google-Seite der Suchergebnisse erscheint, möglichst hoch ausfällt.

die Suchtmaschine 😀

Google befragte den Angaben zufolge 11.000 Unternehmen, wie sie die Dienst nutzen. Dem Ergebnis scheint entnommen werden zu können, dass das Marketing-A&O die genannte Optimierungsmethode gewidmet zu sein scheint, einschließlich Adwords, Analytics & Co.  „Was die Googlesuche nicht auf der ersten Seite ausspuckt, findet im Internet nicht statt“ [Zitat ZDF].

Kann das aber alles sein? Zitat von Joachim Graf zum Thema SEO-Märchen
(Search-Engine-Milchmädchenrechnung): “ Schließlich bringe nicht jeder Euro, der in Google-Suchwortanzeigen gesteckt wird, automatisch Ertrag – geschweige denn zwölf Euro. “ … „Der Umsatz geht hoch, aber der Gewinn nicht. Suchmaschinen-Optimierung ist eine immer komplexer werdende Materie. Das kann man immer weniger mal nebenbei machen. Die TV-Werbebudgets planen ja auch in der Regel Menschen, die wissen was sie tun.“

Sich derart auf die Virtualität zu verlassen, scheint mir etwas zu „gläubig“, wenngleich natürlich nicht unterschätzt werden darf, dass sich tatsächlich sehr viel zum Thema Informationsbeschaffung (BESCHAFFUNG!) auf das Internet verlagert hat. Aber existiert wirklich eine derart weit verbreitete und teilreflektierte Grundgläubigkeit, dass auf diese Weise(n) Kunden und das Kundenvertrauen(!) an die SEO-Optimisten  verkauft werden kann? Nicht jedes Unternehmen ist ein Reisebüro (Focus: Jeder fünfte Deutsche buchte im Internet) und hieß es nicht kürzlich noch „frag nicht Google, frage Deine Freunde“ (wobei hier die belanglosen Kontakte von Facebook gemeint waren)?.

Interessanterweise haben sich übrigens in den letzten Jahren dennoch einige Unternehmen von der Online- in die Offline-Welt gewagt (und im Einzelfall gewonnen).

Zum Thema „Informationsbeschaffung“ sei an dieser Stelle übrigens folgender Beitrag vom Deutschlandfunk empfohlen: Internetbildung oder: Vom Verlust der Übersicht (verbunden mit dem Hinweis, dass der Autor nicht ausnahmslos mit der in dem Beitrag zu Ausdruck gebrachten Meinung übereinstimmt, da in dem Beitrag m.E. zu sehr davon ausgegangen wird, dass Information und Bildung nahezu ausschließlich auf das Internet und Suchmaschinen beschränkt wird)

Sichern Sie sich Ihr Leben (bevor es ein anderer macht)

Aus aktuellem Anlass kann ich Ihnen empfehlen, sich bei den wesentlichen social-media-Netzwerken mit Ihrem eindeutigen Namen zu registrieren, also bei Facebook, Twitter, Google+ und Co.  Sollten Sie Peter Müller, Christine Meier oder Sascha Schmidt heißen, ist das vielleicht nicht so einfach, diese Namen gibt es bekanntlich mehrfach. Aber stellen Sie sich vor, Sie finden Ihren Namen mit einem Lebenslauf (und einer nenneswerten Anzahl von Einzelaktionen) im sozialen Netzwerk in einer Weise vor, wie Sie es evtl. für „nicht veröffentlichungswürdig“ halten.

Die Ankündigung von Facebook, „das gesamte Leben“ in einer Timeline abzubilden sollte hier Anlass zur Besorgnis darstellen, Datenschutzbeauftragte äußern sich besorgt.   Thilo Weichert, der Datenschutzbeauftragte von Schleswig-Holstein, sagte „Ich kann jedem nur raten, entweder ganz die Finger davon zu lassen oder es sehr vorsichtig zu nutzen“.

Wozu aber der Rat, sich bei den genannten Netzwerken zu registrieren? Auch wenn Sie (bis auf Weiteres) nicht beabsichtigen, die Möglichkeiten dieser Art der Kommunikation für sich zu nutzen, können Sie aber auf diese Weise wenigsten so einigermaßen sicherstellen, dass es auch kein anderer (in Ihrem Namen) tut.

alles im Netz?

Zwar gibt z.B. Twitter an, bei Nichtnutzung des Accounts sich das Recht vorzubehalten, diesen nach sechs Monaten stillzulegen (hoffentlich mit vorheriger Ankündigung), der Name bleibt nur bis auf Weiteres „vergeben“. Das wurde auch lange nicht so strikt eingehalten, es besteht aber seit Anfang 2010 die Möglichkeit,  dass sich jemand anderes diesen Namen sichert. Durch einen Login und Logout (spätestens alle 6 Monate also) sind Sie aber schon wieder im Rennen.

Bevor Sie in diesem Zusammenhang übrigens auf „dumme Ideen“ kommen sollten: Unternehmen können bei Twitter Ihre Namensrechte gelten machen, Beispiel: BBC.

Google+ „erzwingt“ sogar Klarnamen als Voraussetzung für eine Anmeldung (also keine Pseudonyme). Facebook verschickt an die hinterlegte Mail-Adresse regelmäßig „Mahnungen“, wenn Sie sich länger nicht angemeldet haben (inhaltlich handelt es sich nicht um Mahnungen, eher um „Erinnerungen“ die u.a. überraschenderweise die eigenen Nachbarn als „Freunde“ vorschlagen und den Nutzer auffordern sich mal wieder anzumelden). Mit der Methode der unerlaubten Video-Klick-Gefällt-Mir-Weiterleitung, dem sogenannten Clickjacking, und der äußerst unbeliebten Weiterleitung von Daten in die USA hat sich dieser Betreiber ohnehin gelegentlich in die Schlagzeilen gebracht.

Ansonsten sollte selbstverständlich gelten „do no evil“, „erzähle keinen Mist“
bedenke, dass das Netz nichts vergisst.

verloren im Netz?

Das betrifft übrigens auch vermeintlich temporär eingestellte Fotos, Videos, Kommentare und dergleichen. Mit dem Löschen ist das eh so eine Sache. Die Dateien werden durchaus nicht verlässlich sofort physisch gelöscht. „Wenn ich das Hinweisschild nach Hannover entferne, ist dadurch nicht auch Hannover weg“ (Zitat Sascha Lobo auf der Veranstaltung im „Herrenhäuser Gespräch: Wie beeinflusst das Internet unser kulturelles Gedächtnis?“ am 30.09.2010). Man muss sich darüber im Klaren sein – und darauf muss ich besonders „junge Leute“ gelegentlich hinweisen, dass diese Inhalte bleiben! Und beliebig kopiert werden können! Und eben diese Inhalte können einem später nochmal zum Verhängnis werden. Mit der genannten timeline wird das noch etwas „dichter“. Interessanterweise haben sich im Netz Anbieter etabliert, die im Auftrag das Netz durchstöbern und unerwünschte Inhalte, die „meinen content“ auf unliebsamen Seiten entfernen, bzw. zu entfernen versuchen.

Wenn Ihnen Ihr Name lieb ist, registieren Sie sich. Zumindest bei Googleplustwitterfacebook und sichern Sie sich IHREN Namen. Behalten Sie die Kontrolle über den „content“, der in Ihrem Namen verbreitet wird (und merken Sie sich irgendwie irgendwo das Passwort;-).

Lesenswert:  Unirgnorierbar (von Sascha Lobo)

In diesen Sinne hier übrigens auch gerne einen Verweis auf Netzdurchblick.de:

Präsenzseminare vs e-Learning

Präsenzseminare vs e-Learning

Mit dem Thema Präsenzseminare / Offene Seminare / e-Learning-Unterstützung und Video-Tutorial-Nachschlagewerke mache ich seit Jahren folgende Erfahrungen:

Bei Präsenzseminaren – besonders bei etwas komplexeren Themen stelle ich fest, dass es am Ende eines ein- oder zweitägigen Seminars heißt „..das war jetzt sehr interessant, viele Informationen, … aber ob ich das morgen noch alles weiß… und für meine Belange transferieren kann…“  (in Kurzform;-).

Meine jeweiligen Hinweise auf Seminar-Begleit-Skripte (die ich u.a. auf meinen Seminar-Online-Seiten für meine Teilnehmer meiner Seminar jeweils für einen bestimmten Zeitraum zur Verfügung stelle) wurden stets „mit Erleichterung“ zur Kenntnis genommen, aber nicht im durchdringenden Maße wahrgenommen (wie ich in den Web-Statistiken verifizieren konnte). Dafür habe ich durchaus vollstes Verständnis; am Arbeitsplatz hat dann wieder jeder mehr als genug zu tun, genug zu tun, zu lesen, genug Mails zu schreiben, zu recherchieren, zu lesen, zu beantworten, Webinhalte und Manuals zu durchstöbern etc.

Die Zugriffszahlen auf die Seminar-Seiten haben sich erst definitiv dann erhöht, als ich mindestens die Abläufe per Video-Tutorial „skizziert“ und zur auf meinen Seminarseiten Verfügung gestellt habe.  Als Aufzeichnung-Tools habe ich anfangs meist Jing verwendet, mittlerweile sind es längst professionelle Werkzeuge)

Diese Erfahrung verfestigte sich im Laufe der Zeit und führte im Jahr 2009 dazu, zusammen mit einem Kollegen eine Online-Plattform zur Verfügung zu stellen, die es „der Allgemeinheit“ ermöglicht, clips zu einer Vielzahl von typischen Seminarthemen ansehen zu können (kostenlos aber nicht umsonst 😀 – zumindest nicht für den Nutzer: seminarclip.de)

wie war das noch ???

Fazit:

  • Text = klasse (und auch weiterhin wichtig und weitgehend unverzichtbar)
  • audiovisuell =  erkennbar hohe Akzeptanz, deutlich einprägsamer, zumindest bei meinem Themenbereich, der sich auf die Anwendung von Software bezieht (aber sicher auch bei anderen).

Voraussetzung ist allerdings stets eine gute Verschlagwortung, die es einem auch in der recht speziellen Terminologie verfassten Funktionalität ermöglicht, sein gewünschtes Thema zu finden.

Ein interessantes Zitat von Torsten Luedecke (Moderatorder Xing-Gruppe e-Learning-Professionals) „…die Akzeptanz beim Teilnehmer sollte bestimmen, wie wir unsere Inhalte aufbereiten. Hier gibt es sicherlich Unterschiede in den Zielgruppen – ich denke an Bildungsgrad, Technikaffinität, Lernbereitschaft, etc.“

Dem kann ich zustimmen.

Aussagefähige Analysen mit PowerPivot

MS-Excel-Powerpivot, DAS BI-Tool

PowerPivot ist ein neues Microsoft BI Feature, das als Excel Add-In in der Version ab Excel 2010 (leider nicht für Excel 2007) zur Verfügung steht.

Eine Einführung sowie eine Download-Möglichkeit finden Sie unter: http://www.powerpivot.com.

Mit PowerPivot können Sie als Anwender Daten aus unterschiedlichsten Datenquellen laden und diese in Datenbank-ähnlicher Weise miteinander verknüpfen. Die Daten werden in einem Extra-Pivot-Programmfenster  analysiert. Die Darstellung erfolgt in der gewohnten Excel Pivot Methode. Neu in der Excel-Version 2010  sind die Slicer (sog. „Datenschnitte“), mit denen Sie auch in verschiedenen Kombinationen Daten schnell filtern und besonders gut in Verbindung mit Powerpivot-Daten verwenden können. Powerpivot ist in verschiedenen Versionen verfügbar, zum einen als Add-In für den Excel 2010 Client, als PowerpivotPro V2 CTP3f (download) mit zusätzlicher Funktionalität z.B. in der Beziehungs-Darstellung und der Sort-by-column-Funktion und einmal als Enterprise Feature von SharePoint/SQL Server. Auch in der Client-Version sind Sie hinsichtlich der Daten-„Mengen“ fast unbegrenzt, immerhin mehrere Millionen Datenzeilen können eingelesen werden.

Einmal erstellte PowerPivot Dokumente können auf Basis der zu Grunde liegenden Daten aus den jeweiligen Quellen aktualisiert werden. Die Arbeitsgeschwindigkeit von PP ist auch bei großen Datenbeständen sehr hoch.

Über die im Excel Pivot integrierte Charting-Funktionalität ist eine  – auch mehrfache –  grafische Darstellung der Daten möglich.

Mit den Möglichkeiten der tabellarischen und grafischen Analyse lassen sich direkt in Excel ansprechende Berichte (Reports) und Dashboards erstellen, was gerade im Management-Bereich sehr begehrt sein dürfte.

Im Grunde hat Microsoft mit der Veröffentlichung von Powerpivot für den Anwender in manchen Fällen den „Umweg“ über Access-Dateien (MDB oder ACCDB) unnötig werden lassen. Habe ich in Vorgängerversionen häufig das Problem gehabt, dass die Anbindung an unterschiedliche externe Daten einschl. Verknüpfung zunächst über den Umweg einer MDB oder ACCDB realisiert werden musste (hier können dann die Tabellenbeziehungen erstellt werden) um dann wiederum via Excel an diese Daten anzubinden (und das Ganze ggf. noch über einen weiteren Umweg mit definierten Abfragen), kann der Anwender nach Einrichtung eines PP-Dashboard sehr schnell seine Auswertungen erhalten (was aber nicht zwingend bedeutet, dass auf die Datenbanken selber verzichtet werden könnte;-)..

Die Installation von Powerpivot erwartet (sofern nicht auf Windows7 installiert) DotNet-Framework ab V.3.5.

Gern verweise ich auf folgenden Beitrag aus MindBusiness: „sehr überzeugend

Was ist Business Intelligence? (by intricity101 via Youtube – englisch)

PowerPivot: Beziehungen:  Verknüpfungen zwischen Tabellen

Definition: Hier etwas Theorie.

Was sind Beziehungen?

wie finden die Teile zueinander?

Beziehungen zwischen Tabellen sind in Excel selber nicht darstellbar. Technisch gesehen, sind Tabellenbeziehungen den Datenbanken entlehnt (ER-Modell[1]). Dabei sind nicht die Tabellen selber „verknüpft“. Die Beziehung findet über Spalten (bzw. Felder, wie es in der „Datenbanksprache“ heißt. Die Spalte der einen Tabelle steht mit der Spalte einer anderen Tabelle in Beziehung. Dabei besteht die Beziehung auch per Definition lediglich zwischen diesen beiden Spalten. Da diese Spalten aber in der Regel Teil einer Tabelle (Entität), stehen somit quasi beide Tabellen miteinander in Beziehung. Zu beachten ist dabei, dass die verknüpften Spalten „typgleich“ sein sollten, d.h. wenn z.B. die Spalte KundenNummer der Kundentabelle mit der Spalte KD einer Bestellungstabelle in Beziehung stehen soll, sollten beide Spalten von den Datenfeldtypen zusammenpassen, es sollte sich also bei beiden Spalten um Zahlenspalten handeln (wenn es denn Zahlenwerte sind) oder um Textspalten (kann auch gemischt sein). Grundsätzlich können zwar auch Zahlenspalten mit Textspalten verknüpft werden, das führt im Einzelfall allerdings zu Problemen.

Wozu werden Beziehungen verwendet?

Beziehungstyp 1:n: In den meisten Fällen ist sicher von einer 1:n-Beziehung auszugehen. Klassischerweise handelt es sich dabei um die Beziehung zwischen einer Tabelle mit sog. Stammdaten und einer Tabelle mit Bewegungsdaten. Als Beispiel kann das o.g. Kunden-Bestellungen-Verfahren genannt werden: Ein Kunde, der in der Kundentabelle aufgrund der eindeutigen Kundennummer nur einmal vorkommen kann, kann allerdings (mit seiner Kundennummer) in der Bestellungentabelle mehrfach in Erscheinung treten. Da in der Bestellungen-Tabelle in der Regel nicht auch noch alle Kundendaten gespeichert werden (sondern eben nur die Kundennummer) kann durch die Beziehung zur Kundentabelle aufgrund der eindeutigen Kundennummer auf die anderen Kundendaten „rückgeschlossen“ werden. Werden also nun Spalten beider Tabellen (Kundendaten und Bestellungen) in einer Auswertung verwendet UND es besteht eine Beziehung zwischen den beiden Kundennummern-Spalten, wird die Datenbeziehung gewährleistet, d.h. es werden die „korrekten“, bzw. die zusammengehörigen Daten selektiert bzw. zusammengestellt.

Beziehungstyp 1:1: In diesem Fall handelt es sich um die Beziehung zwischen zwei Stammdaten-Tabellen, die über die verknüpfte Spalte in jeder Tabelle eindeutige Werte führt. Beispiel: Eine Artikeltabelle mit eindeutiger Artikelnummer, die „alle“ Artikel umfasst und eine Artikeltabelle in der bestimmte Spezifikationen erfasst werden, die nur für eine Auswahl von Artikeln gespeichert wird (z.B. Artikel, die selber hergestellt werden oder auch das Gegenteil, Artikel die fremdbezogen werden).

In dem Register PowerPivot sollte die Beziehungserkennung eingestellt sein.

PowerPivot: DAX-Funktionen

Was und Wozu?

Die Verwendung von DAX-Funktionen (Data-Analysis Expression) ist auch bei komplexen Auswertungen nicht immer zwingend erforderlich. Auch in einer Excel-Pivottabelle steht Ihnen die Möglichkeit zur Verfügung Excel-Funktionen einzubauen. Die Nutzung von DAX-Funktionen, die auf der Powerpivot-Seite sowie als DAX-Measures in den Pivot-Tabellen zur Verfügung stehen, ähnelt komfortabelerweise in der Anwendung sehr den Excel-Funktionen, obwohl sie „technisch gesehen“ nicht in Excel stattfinden. Durch die Verwendung von DAX-Funktionen können allerdings Ergebnisse „vorbereitet“ werden, die dann bei der Erstellung eines Dashboards als „Datenergebnisse“ in Excel einfließen. Grundsätzlich gilt: Excel ist bei der Ermittlung von Funktionsergebnissen langsamer als Powerpivot. Besonders bei der Anbindung an größeren Datenbeständen (also mehr Zeilen, als Excel darstellen kann) ist die Nutzung von DAX-Funktionen daher sinnvoll bzw. unerlässlich (abgesehen davon, dass hier auch eine nennenswerte Anzahl von Datenbankähnlichen Funktionen zur Verfügung stehen, die Excel selber nicht kennt).


[1] ER-Modell: Entity-Relationship-Modell

Ein Beispiel für die Funktion SUMX: Powerpivot DAX-Funktion SUMX