Ein System das nicht lebt ist tot!

Ein System das nicht lebt ist tot!

Zu dieser wenig überraschenden Einsicht gelangt man, wenn man sich lange genug durch die Forenwelt in Netz geklickt hat. Es gibt hervorragende Beispiele von Foren, bei denen die Betreiber einfach alles richtig machen. Und es gibt Foren, bei denen das nicht so ist. Ich meine damit übrigens durchaus gar nicht mal die Inhalte, manche Foren und/oder Groups (auch bei Xing) sind derart speziell, dass sich dort nicht gerade minütlich Threads sammeln, dennoch können sie hoch effektiv und inhaltlich geradezu einzigartig und somit von hohem Wert sein.

Ich meine die Moderation! Zwar ist man als Benutzer eines Forums oder einer Gruppe nicht direkt mit einem Gegenüber befasst, aber dennoch merkt man doch recht schnell, ob ein Forum moderiert wird. Wenn nicht, „fühlt“ es sich tot an. Und dann stirbt ein derartiges System auch recht schnell.

Mir sind Beispiele bekannt, bei denen das dennoch versucht wurde. Beispielsweise wurde eine Online-Bildagentur ins Netz gestellt und dann davon ausgegangen, dass das „schon von selbst läuft“. Es lief nicht. Kein einziges Bild wurde verkauft! Oder ein Forum, das mit einem einprägsamen Namen einfach ins Netz gestellt wurde und in dem sich im Laufe von wenigen Wochen wenig Sinnhaftes ansammelte. Das Forum starb noch vor seinem ersten Geburtstag, es wurde einfach nicht mehr genutzt.

Es bedarf eines lebenden Menschen aus Fleisch und Blut der zuständig ist, der „dafür steht“, der ansprechbar ist, der re-agiert.

Genauso wie im weltweiten Netz, verhält es sich auch in internen Netzen, Stichwort „Wissensmanagement“. Auch hier ist mir ein Beispiel bekannt, bei dem ein großes Unternehmen in einer hoch-kompetenten Arbeitsgruppe die Voraussetzungen für ein Wissensmanagement-System erarbeitet hat. Nachdem die Arbeitsgruppe ihre vorbereitende Projektarbeit beendet hatte, gab es plötzlich niemanden mehr, der für die Umsetzung einstand. Das System wurde nicht realisiert. In einem anderen Beispiel ging es umgekehrt zu. Ein komplexes System für ein Wissensmanagement wurde realisiert und die Mitarbeiter wurden nicht „mitgenommen“; weder an der Planung beteidigt noch eingewiesen, noch nicht mal richtig informiert. Geschweige denn, dass zu Beginn bereits verwertbarer content eingepflegt wurde. Die Anwender navigierten einige Zeit im luftleeren Raum, das komplexe und teure System starb den Erstickungs-Tod.

Mehr zum Thema „Wissens-Management“ gibt es HIER

xl-dataCleaner, das Datenbereinigungs-Add-In

xl-dataCleaner, das Datenbereinigungs-Add-In

Zwischen ‘Daten’ und ‘Auswertung’ liegt oftmals das Problem der Datenbereinigung (auch Datenreinigung bzw. Data-Cleansing genannt), also der Weg, bzw. die Methode, bestehendes Datenmaterial auf Inkonsistenzen zu untersuchen, in eine homogene Datenbasis zu überführen und auf einen auswertbaren Stand zu bringen. Die Bereinigung ist oftmals aufwändig und erfordert hohe Aufmerksamkeit sowie detaillierte strukturelle Kenntnisse der Datenbasis.
Manche der Datenbereinigungsaufgaben lassen sich automatisieren, manch andere  sind derart ‘speziell’, also unternehmens- bzw. themenbezogen, dass es kaum möglich ist, diese Aufgaben zu standardisieren.

Das Datenbereinigungstool xl-dataCleaner für Excel widmet sich den automatisierbaren Datenbereinigungsproblemen, die in der täglichen Praxis immer wieder auffallen.

xl-dataCleaner, Download bei heise

Besonders in den Fällen, bei denen aus verfahrenstechnischen Gründen in regelmäßigen Intervallen Daten aus unterschiedlicher Herkunft eingespielt werden müssen (SAP, AS-400, SQL-Server oder sonstigen Datenquellen, als .csv, .txt, .xls, .dbf oder anderen Dateitypen) lohnt sich der Einsatz eines automatisierten Tools, das immer wiederkehrende Vorgänge bei der Abgleichung oder Bereinigung von Daten extrem beschleunigen kann und somit zu einer signifikanten Zeit- und Kosten-Ersparnis führt. Weiterhin wird durch die Automatisierung die Datensicherheit gewährleistet, da Ihnen bei Abgleichen, die ‘händisch’ oder ‘per Sichtung’ vorgenommen werden, zwangsläufig Fehler unterlaufen

Bei allen Automatisierungsvorteilen erfordert eine Datenbereinigung sehr hohe Aufmerksamkeit und recht detaillierte Kenntnisse über die Daten hinsichtlich der Struktur und des Aufbaus und auch (bis zu einem gewissen Grad) inhaltlich.Beachten Sie bitte weiterhin, dass alle Änderungen, die von xl-dataCleaner vorgenommen werden (also z.B. Löschen von doppelten Zeilen)  NICHT RÜCKGÄNGIG gemacht werden können, also die ‘Rückgängig’-Funktionalität von Excel nach Ablauf dieser Funktionen nicht zur Verfügung steht. Testen Sie die Abläufe ggf. auf einer Datenkopie.

Hinweis:

Nach dem Öffnen oder einbinden der XLA(M)-Datei sollten die
xl-dataCleaner-Symbolleiste XP/2003 bzw. Symbolleiste 2007
erscheinen.

VOR dem Start der einzelnen Funktionen bzw. dahinterliegender Makros muss der Zellzeiger auf die gewünschte Spaltenüberschrift-Zelle gesetzt werden (Ausnahme: Inkonsistenzen-Check).

Zu Ihrer Information: Makro-Viren

Was sind Makro-Viren?
Mit der Programmiersprache VBA (auch Excel-VBA) besteht die Möglichkeit, auf  Elemente des Betriebssystems oder anderer installierter Programme zuzugreifen (z.B. Outlook). Auf diesem Wege können kleine oder auch größere Programme bzw. Programmteile über einen Makro „eingeschleust“ werden, die auf Ihren Computer Schaden anrichten. Bei Ausführen bzw. Starten von Makros unbekannter Herkunft besteht somit grundsätzlich eine Gefahr.

Die Makros von XL-dataCleaner wurden ohne die Verwendung von API oder ActiveX-Elementen in VBA programmiert und können bedenkenlos verwendet werden, da bei der Programmierung ausschließlich auf Excel-VBA-Funktionen und Funktionalitäten zurückgegriffen wurde.

„Das behalte ich doch besser für mich…“ Wissenstransfer im Unternehmen

„Das behalte ich doch besser für mich…“ Wissenstransfer im Unternehmen

Was machen Sie mit Mitarbeitern die aus dem Unternehmen ausscheiden?

Wie vermitteln Sie neuen Mitarbeitern die erforderlichen Informationen?

Indikatoren für das Ausscheiden von Mitarbeitern:

  • Beendigung des Arbeitsverhältnisses (Kündigung seitens des Mitarbeiters oder des Unternehmens, Vertrag ausgelaufen und nicht verlängert)
  • Beendigung der Lebensarbeitszeit – (Eintritt ins Rentenalter)
  • Wegzug eines Mitarbeiters
  • Tod eines Mitarbeiters

Abgesehen vom Tod eines Mitarbeiters, lassen sich die meisten andreren Termine in der Regel recht genau absehen.

Auch wird sich ein Unternehmen gewiss regelmäßig Gedanken über die Personalentwicklung in den nächsten Jahren machen oder gemacht haben. Aber Silvester und Weihnachten kommen ja immer so plötzlich.

Einige Indikatoren für „neue Mitarbeiter“:

  • Einstellung (Festanstellung, Zeitvertrag / Zeitarbeit / Projektarbeit)
  • Abteilungswechsel
  • Ortswechsel (Filialwechsel)
  • Einstellung von Auszubildenden
  • Vertragliche Verpflichtung von externen Mitarbeitern

Gewiss erinnern Sie sich noch an die Zeit, in der längst verrentete Mitarbeiter „wieder ausgegraben“ wurden um z.B. ältere Software anpassen zu können. Ein Beispiel war das sog. „Millenium Problem“ um die Jahrtausendwende. Diese Mitarbeiter wurden seinerzeit aus den Unternehmen entlassen, OHNE dass sichergestellt wurde, dass deren Wissen hinreichend dokumentiert war.

Lohnt es sich überhaupt, Wissen zu sichern/speichern, wo Wissen doch so schnell veraltet? Grade deshalb! In vielen Fällen veraltet ja nicht das Wissen, zumeist verändern sich lediglich Details oder Parameter von Informationen und/oder Verfahren  – klassisches Beispiel: Einführung eines neuen Software-Releases oder die Modifikation eines Arbeitsablaufes („…das Formular X geht jetzt nicht mehr über A, sondern direkt an B“)

Die Gründe für den Aufbau eines Wissens-Management liegen in der Regel auf der Hand und von deren Notwendigkeit braucht in der Regel auch kaum jemand überzeugt zu werden. Dennoch seien hier einige wesentlichen Gründe genannt:

  • Transparenz von Informationen (welche Information gehört in welchen Bereich?)
  • Übersichtlichkeit von Zuständigkeiten (auch in anderen Filialen, Geschäftsstellen, Standorten)
  • Ablaufprozesse werden beschrieben
  • Wissen geht nicht verloren (siehe hier insbesondere die Beispiele, in denen Mitarbeiter das Unternehmen verlassen und ihr Wissen „mitnehmen“)
  • Informationen liegen idealerweise aktuell vor.
  • Zur Beschaffung von Informationen muss nicht darauf gewartet werden, dass der zuständige Mitarbeiter Zeit hat oder aus dem Urlaub oder von sonstiger Abwesenheit zurückgekehrt ist
  • Fragende Mitarbeiter können sich an ein „anonymes System“ wenden  (und können sich auch „trauen“ Fragen zu stellen)
  • Beschreibung von verwendeten Materialien für die Produktion
  • Beschreibung der Beschaffung (von Materialien, Büromaterial, internes Antragswesen etc.)
  • Unternehmens-Richtlinien z.B. für Beschaffung, Ausschreibungen, Pausenregelungen, Hausordnung(en), Urlaubsregelungen etc.
  • Auszubildenden steht eine Möglichkeit zur Verfügung, Informationen nachzuschlagen
  • Gebrauchsanweisungen und Verfahrensbeschreibungen liegen zentral vor und müssen nicht „zusammengesammelt“ werden.

Zur Durchsetzung eines entsprechenden Systems liegt der „Schwachpunkt“ oft der Verifizierbarkeit und das Problem der Quantifizierung.

  • Ist die Einführung im Vorfeld hinreichend und konstruktiv kommuniziert worden?
  • Wird das System genutzt? (fühlen sich die Mitarbeiter mit dem System wohl?)
  • Sind die Informationen hilfreich und verständlich (ein „das hat mir (nicht) geholfen“-Button ist gewiss zu bedenken)
  • Kann eine Zeitersparnis genannt (und ggf. quantitativ benannt) werden? (Interviews der Nutzer nach einer gewissen Nutzungs-Zeit nach Einführung)
  • Ist „Zeitersparnis“ überhaupt  das „Maß aller Dinge“? Führen die Erkenntnisse mittelfristig dazu, dass die Erledigung von Aufgaben besser und sicherer, mit geringerer Fehleranfälligkeit (oder eben auch schneller) durchgeführt werden?
  • Sind die Inhalte angemessen in der Darstellung und im Umfang (Vermeidung von Quassel-Strippen)
  • Können z.B. interne Seminare eingespart werden? (Reisekosten, Fahrtkosten, Hotelkosten etc.)
  • Bei der Einstellung ist ggf. zu prüfen, ob die Quelle (automatsch) gespeichert werden soll (hier ist sicher Rücksprache mit dem Betriebsrat angeraten)

Häufig ist festzustellen, dass Mitarbeiter, regelrecht auf ihrem Wissen „sitzen“ und somit die Transparenz behindern. Nicht selten ist die Sorge um den eigenen Arbeitsplatz ein Grund, Informationen für sich zu behalten. Aber wem gehört eigentlich das von den Mitarbeitern erworbene Wissen? Akzeptanzproblemen von Mitarbeitern begegnet man am besten, wenn von Seiten der Unternehmensleitung die Methoden nicht nur „gut-heißt“, also „virtuell unterstützt“ wird, sondern wenn Geschäftsführer, Abteilungsleiter und sonstige „Chefs“ sich aktiv am Wissenstransfer beteiligen.

Zum Erfolg für die Einführung eines Wissens-Management zählt auch

  • die Taktik der Einführung. Wenn Mitarbeitern ein System „vor den Füße geworfen“ und anschließend erwartet wird, dass es gleich genutzt wird, ist der Erfolg sicher nicht gewährleistet.
  • Die Entwicklung sollte bereits im Vorfeld kommuniziert werden (mindestens: eine offizielle Bekanntmachung des Plans und ein (ggf. vorläufiger) Einführungstermin. Wird ein System eingeführt und erst anschließend gefragt, wofür und wie es verwendet werden soll, ist gewiss wenig zielführend.
  • Eine Wissensdatenbank sollte zum Zeitpunkt der Einführung bereits über hinreichend Content verfügen, so dass es auch von Beginn an genutzt werden kann und eine „Grundmotivation“ besteht, den Content zu erweitern.
  • Ein weiterer Faktor ist die Abgrenzung von Informationen.
  • Eine mittelfristige Anpassung der Unternehmenskultur in Bezug auf das Prozessbewusstsein sollte stattfinden und gewährleistet werden. Dazu zählt sicher auch, dass keiner „schief angesehen“ wird, wenn er/sie sich einen Clip ansieht und dabei Ohrstöpsel trägt.

Was gehört in eine Wissensdatenbank?

Sicher gibt es hier keine allgemeingültige Formel denn es ist von Branchen zu Betrieb höchst unterschiedlich. Hier ein Versuch, einer eher „allgemeinen“ Auflistung von Beispielen.

Zu berücksichtigen ist dabei, dass es sicher auch Informationen gibt, die nicht Abteilungsübergreifend zur Verfügung stehen dürfen
(Stichwort: Abgrenzung von Informationen!)
Weiterhin ist das Einstellungs-Datum einer Information von Wichtigkeit!
(Stichwort: Wie aktuell ist diese Information). Dabei ist „Aktualität“ nicht mit „Gültigkeit“ zu verwechseln.

  • Verfahrensbeschreibungen über interne Vorgänge / Definition von Geschäftsprozessen
  • Definition von Arbeitsabläufen
  • „Gebrauchsanweisungen“ über technische Geräte
  • Auch „Banalitäten“ wie Übersichten von Zuständigkeiten, Mitarbeiterlisten (Abteilung), Telefonlisten und dergleichen sind für die Aufnahme überlegenswert
  • Erfahrungen aller Art und Form (auch Erfahrungen mit Kunden, Produkten, Artikeln, Maschinen…)
  • Beschreibungen über Einstellungen von Software, Hardware, bis hin zum Umgang mit dem Kopierer
  • Beschreibungen technischer Probleme und deren Lösung
  • Übersicht der in der Anwendung befindlichen Geräte
  • Ein Forum-ähnlicher Aufbau kann u.a. sinnvoll sein.

Techniken Methoden / / Verfahren / Aufzeichnungsarten

  • Text in Form von Artikeln (auch Microartikel)
  • Interviews ausscheidender Mitarbeiter
  • Unternehmens- Wiki (z.B. Confluence)
  • Unternehmens-Twitter / Microblogging-Software (z.B. Laconica, Echowaves, Mini-Twitter, Just-Software, cynapse)
  • Unternehmens-Facebook
  • WordPress (Blog-System)
  • Sharepoint (die teurere Variante, erfordert aufwändigere Wartung)
  • Videoaufzeichnungen (Lernfilme, vorzugsweise kurze Clips z.B. über Softwareanwendungen) bsp. mit Jing
  • Folien (slideshare), Tweets, Fragen (Unternehmens-Forum), Videos (Lernfilme), Webcast, PDFs
  • Übergreifende Suchfunktionalität (Volltextrecherche), „Bedeutungssuche“ (sematische Suche ‑>Erfordert eine gute (assoziative) Verschlagwortung von Text, Folien, Videos etc.

WordPress, das System für Arme?

Keineswegs! WordPress basiert auf PHP, MySQL und was das Backend betrifft, handelt es sich sicher um ein zukunftsorientiertes System. Zumindest ist die Portabilität aufgrund allgemeiner Kompatibilitäten weitgehend gewährleistet. Bestechend an dem System ist zum einen, dass es kostenlos und mit sog. Widges“ oder „Plugins (auch häufig kostenlos aber nicht umsonst;-) schier endlos erweiterbar ist. Es bestehen Verschlagwortungsmöglichkeiten für Artikel und Seiten (aus denen u.a. Word-Clouds erstellt werden können), die übergreifende Suchmöglichkeit funktioniert sehr gut! Es ist also kein Wunder, dass sich WP großer Beliebtheit erfreut (lt. Ion Burke (wordpress.com) ca. 50.000 neue Blogs täglich). Die Installation ist zwar „etwas gewöhnungsbedürftig“ aber dann sehr gut einzustellen, zu bedienen und zu warten.

Moderation

Wichtig ist, dass ein Wissenstransfer-Management-System moderiert wird. Ein nicht-moderiertes System stirbt mitunter kurz nach der Einführung, ein System „lebt“ nicht von selber.

Zu den Aufgaben eins Moderators (Content-Manager) gehören u.a.:

  • Mitarbeit bei der Entwicklung des Systems (ggf. in enger Abstimmung mit der IT-Abteilung)
  • Aufräumen des Systems (u.a. verschieben falsch zugeordneter Einträge)
  • Technische (und optische) Anpassungen
  • Überprüfung der Qualität von Beiträgen
  • Ggf. Anpassungen von missverständlichen Formulierungen (vorzugsweise erst nach Nachfrage)
  • Weiterleitung von Anfragen an die kompetente Person
  • Ggf. entfernen von offensichtlich sinnfreien oder gesetzeswidrigen Einträgen
  • Idealerweise trägt der Moderator ebenfalls dazu bei, die Wissensdatenbank zu füllen und regelmäßig die Aktualität der Informationen zu verifizieren und ggf. zu korrigieren oder Update-Informationen weiterzuleiten.
  • auch die o.g. Mitarbeiter-Zufriedenheits-Untersuchen kann gut in den Aufgabenbreich passen
  • Und nicht zuletzt: „ansprechbar sein“

Entscheidend bei der Auswahl eines Systems ist nicht zuletzt die Portabilität (Plattformunabhängigkeit) des Backends. Es ist nicht einfach einzuschätzen, wie sich ein System entwickeln wird, ob also gewährleistet ist, ob das System, für das man sich entschieden hat oder entscheiden möchte, in den nächsten 10 Jahren technisch noch relevant ist, und eine Wissensdatenbank sollte durchaus auf die Zukunft gerichtet sein.

Interessant auch in diesem Zusammenhang:  Drei Schritte zum erfolgreichen Wissenstransfer von Melanie Hattwig

Geschickt verborgen…

Geschickt verborgen…

Auswertungen und Aussagefähigkeit beruhen auf den Säulen von Vertrauen in die „Korrektheit“ der Daten. Falsch bereinigte oder konsolidierte Daten führen zu falschen Aussagen und stellen mitunter die Basis für falsche Entscheidungen dar.

Wie aber ist es mit absichtlich „verbogenen Tatsachen“? Dafür eignen sich Histogramme / Häufigkeitsverteilungen allerbestens.

Ein Beispiel: Die Logistik einer Lagerhalle wird überprüft. Zu diesem Anlass wird untersucht, welche Mengen (Einheiten) von Artikeln ab einer bestimmten Größe bewegt werden. Auf Basis der Daten für einen bestimmten Zeitraum (bspw. ein Jahr) ergibt sich folgende Verteilung:

Der zuständige Leiter der Transportwege zwischen Lager und Versand möchte aber die Wege verbreitern um die Sicherheit zu erhöhen und benötigt dafür ein „plausibles“ Argument. Was eignet sich besser, als nachzuweisen, dass in erster Linie GROße Mengen transportiert werden:

Der „Finanzminister“ des Unternehmens steht dieser Investition tendenziell ablehnend gegenüber (was bekanntlich das Hauptanliegen aller Finanzminister ist) und weist nach, dass in erster Linie GERINGE Mengen bewegt werden:

Das bemerkenswerte daran ist, die sämtliche Diagramme auf Basis DER SELBEN Daten ermittelt wurden. Werden diese Ergebnisse bei Besprechungen bzw. Präsentationen als unterstützende Folie eingeblendet, wird der jeweilige Gegenüber (die die Daten ggf. nicht kennt) geblendet, zumal der Vortragende selbstverständlich darauf achtet, dass die Folie mit der Hauptaussage nur so lange stehenbleibt, bis die gewünscht Aussagewahrgenommen wurde und keiner auf die Idee kommt nachzufragen, WIE sich dieses Ergebnis erklärt.

WIE aber kommen Sie zu der „korrekten“, neutralen und seriösen Betrachtung zur „kurzen Verifikation“ des Ergebnisses? Welche Fragen müssen Sie stellen?

Hier die wesentlichen Kennzahlen:

1.: Wie lautet die Spannweite der Werte?
Die Spannweite ergibt sich aus dem kleinsten und dem größten Wert der zugrunde liegenden Daten, also
Spannweite = maximaler-Wert – minimaler-Wert
Hier können Sie bereits erkennen, ob die Stufungen (Klassen) der Verteilung seriös ist. Lautet der größte Wert bspw. 8.000, die Klassen hören aber schon bei 5.000 auf, sollte das verdächtig erscheinen. Analog dazu sollte es auch auffallen, wenn der kleinste Wert 100, die Klassen beginnen aber erst bei 2.000 sollte das ebenfalls als „bemerkenswert“ zur Kenntnis genommen werden und ggf. zu Nachfragen führen.

2. Wie erklären sich die Stufungen (Klassen)? Sind die Intervalle unregelmäßig? Ist evtl. auffällig, dass sich die Intervalle in eine bestimmte Richtung „verdichten“? Wenn ja, fällt die Streuung auch entsprechend „aus“ aber nicht unbedingt „auf“.
Entspricht die Anzahl der Stufen in irgendeiner Weise der Spannweite?

Hier ein Beispiel mit einer Verdichtung in den ersten und den letzten Stufungen, eine markante Streuung ergibt sich somit in der Mitte:

Es kann im Einzelfall aber auch sein, dass diese „Intervallverdichtung“ durchaus begründet ist, bspw. Um einen bestimmten Bereich gesondert zu betrachten, dann aber sollte auch ein Hinweis erfolgen.

Kurz und klein: Mit Histogrammen und Verteilungen kann eine Menge ausgesagt oder eben auch verschleiert werden. Tür und Tor für Manipulationen sind weit offen. Wer aber die Regeln einer Verteilung versteht, ist weitgehend gefeit.

Wie gut, dass niemand weiss…

…wo in meinen Daten die Informationen stecken. Naja, Spaß beiseite. Im Grunde handelt es sich um ein Ärgernis, das in allen Unternehmen von klein bis groß anzutreffen ist. Mitarbeiter kämpfen sich durch gigantische Ordnerstrukturen und verstecken dort Ihre Daten. Zwar sind natürlich (fast) alle Unternehmen in irgendeiner Weise zertifiziert, auch die Informationsstrukturen sind im Grunde zumeist definiert (Stichwort ISO9000soundsoviel).

Aber: Theorie ist ISO, Praxis ist Excel.

Der Klassiker: Auswertungsdaten werden in Excel-Arbeitsmappen nach Jahren, je bestehend aus 12 Tabellenblättern (von Januar bis Dezember) auseinandergerissen. War das noch zu XLS-Zeiten zweckmäßig, ist das seit XLSX nicht mehr begründbar. In XLS-Dateien konnten lediglich 65.536 Zeilen abgebildet werden, in der XLSX-Variante 1.048.576, das ist immerhin 16 mal so viel. Aber man gewöhnt sich an das Verfahren, dabei wäre es kein großer Aufwand, die Daten (auch jahresübergreifend) zusammenzufassen. Auch die Mächtigkeit der immerhin kostenlosen Power-BI-Add-Ins Powerpivot und Power-Query (ab V.2010) sowie Power-View und  Power-Map (ab V.2013) hat sich in den Unternehmen noch nicht sonderlich herumgesprochen.

Oder: Es werden Duplikate und erhebliche Redundanzen mit nennenswerten Anomalien geführt; Motto: „in meiner Kundentabelle wohnt Firma Müller GmbH in Heidelberg und nicht in Stuttgart“ bzw. „die ABC-Membran hat in meiner Liste die Artikelnummer WA4711 und noch nicht die aktualisierte Nr. WA4711H“. Im günstigsten Fall werden diese Redundanzen mit einem Dateinamen-Präfix á la „20150402-Produktdaten“ geführt um eine Historie zu begründen.

Sind die Daten schlecht gepflegt, drohen falsche Abrechnungen und Auswertungen. Überhaupt besteht bei Auswertungen meiner Erfahrung nach eine erstaunliche „Gläubigkeit“ an die Korrektheit der Datenbasis.

Die Datenqualität leidet erheblich, die Informationen „ver-dschungeln“ sukzessiv, die Zusammenführung ist oft sehr problematisch. Lt. Computerwoche (data-expert-lounge) büßen Unternehmen bis zu 25 Prozent ihres operativen Gewinns in Folge schlechter Datenqualität (DQ) ein [http://www.computerwoche.de/software/bi-ecm/1938325/]. Lt. Forrester-Umfrage „Trends In Data Quality And Business Process Alignment“, unter großen US-Unternehmen, ist 18 Prozent der befragten Unternehmen das Zusammenspiel von Business Process Management (BPM) und Datenqualität nicht bewusst. Es handelt sich eben nicht um ein „nice-to-have“-Thema, wird aber teils noch immer so gesehen! Unter Business-Intelligence (BI) stellt man in der Regel hochgezüchtete Softwaresysteme vor, aber auch das muss nicht unbedingt sein, denn wie lautet das Ziel von BI? Ganz einfach: Die (möglichst verlässliche) Ermittlung von Kennzahlen. Es ist nicht immer gleich zwingend erforderlich eine hochkomplexe Software zu entwickeln oder zu erwerben mit der man zum Mond reisen könnte obwohl noch nicht mal die Absicht besteht die Erdatmosphäre zu verlassen, sondern lediglich auf einen Hügel zu steigen um die Übersicht zu bewahren.

In wenigen Schritten zur Lösung:

  • Zuallererst: Eine Daten-SICHTUNG und Bewertung (welche Daten liegen in meinem Unternehmen überhaupt vor), Prüfung nach Relevanz und Aktualität (gute Daten / schlechte Daten)
  • Die Bereinigung der Daten: Duplikate raus und überprüfen auf Korrektheit, ggf. vervollständigen und abgleichen der Daten – Stichwort „Datenhygiene“. Dieser Punkt ist leider oftmals mit etwas zeitlichem Aufwand verbunden.
  • Die Zusammenführung wesentlicher Daten unter einheitlichen Strukturen
  • Die klare Trennung von Stammdaten und Bewegungsdaten (SEHR wichtig!!!)
  • Eine klare Ablage- und Sicherungsdefinition der Daten
  • Die eindeutige Kennzeichnung von Sicherungen und
  • Eine klare Zuständigkeitsdefinition: wer darf was ändern/anfügen/löschen – und trägt somit die Verantwortung für Korrektheit und Aktualität der Daten    sowie
  • Die Ermöglichung von Daten-Verknüpfungen

Die Einhaltung dieser Punkte (oder Teile davon) würde bereits eine erhebliche Qualitätssteigerung gewährleisten. Natürlich macht sich das alles nicht von selbst. Je „chaotisierter“ die Datenbasis, desto aufwändiger ist zunächst die Bereinigung, aber desto deutlicher ist auch der schon bald spürbare Effekt.

„Data-Quality-Management“ wird (zu Recht) häufig mit „Data-Mining“ in Verbindung gebracht. Unter diesem Stichwort werden wiederum teure Programme und Tools angeboten. Für Excel wird ein ebenfalls kostenloses Data-Mining-Tool als Add-In angeboten. Das Data-Mining-Verfahren kann allerdings auch ohne den Einsatz von Software erfolgen. Der o.g. Punkt „Daten-Sichtung und Bewertung“ ist im Grunde bereits Data-Mining und erfordert oft nur ein hinreichendes Verständnis für Daten und Datenstrukturen und eine möglichst auf Erfahrung basierende Analysefähigkeit.

Fazit: Nichts gegen Excel (und andere Desktop-Tools), ganz im Gegenteil. Nutzen Sie Excel – aber nutzen Sie es auch. Professionell! Versetzen Sie Ihre Mitarbeiter in die Lage, die Möglichkeiten (auch die neuen Möglichkeiten) zu nutzen (Stichwort Schulung). Und: Holen Sie sich ggf. Unterstützung.

Tutorial: DAX-Funktionen: Das Geheimnis des kontextuellen Zusammenhanges

Tutorial: DAX-Funktionen: Das Geheimnis des kontextuellen Zusammenhanges

Die Bearbeitung von OLAP-Daten mit Powerpivot unterscheidet sich von den bekannten Excel-Formeln und Funktionen in einigen Bereichen doch recht erheblich.

Im Gegensatz zu „reinen“ Listen, lassen OLAP-Daten eher eine technische Nähe zu Datenbanken zu, die Daten werden anders aggregiert.

Bei Powerpivot werden daher Funktionen im kontextuellen Kategorien eingeteilt. Das schränkt die Anwendung von Funktionen mitunter etwas ein.

Jede Funktion kann (und sollte) in folgenden Kontexten gesehen werden:

* Zeilenkontext

* Abfragekontext und

* Filterkontext ( http://technet.microsoft.com/de-de/library/gg413423.aspx )

Microsoft beschreibt in seinem TechNet die Funktionen und Funktionsweise einigermaßen ausführlich.

Die Filter- und Wertfunktionen in DAX sind sehr komplex und leistungsstark und unterscheiden sich erheblich von Excel-Funktionen Die Auflistung scheint hier recht eindeutig. Eine Übersicht findet sich hier: http://technet.microsoft.com/de-de/library/ee634807.aspx

Nur wie kann ich jetzt beispielsweise herausfinden, zu welcher der Kategorien eine bestimmte Funktion zu zählen ist? Können alle „Funktionsarten“ als Tabellenfunktion sowie als Measure angewendet werden?

Dieses Video-Tutorial soll dieser Frage nachgehen und dazu beitragen, die Kontext-Betrachtung von DAX-Funktionen verständlicher zu machen.

Dieser Clip wendet sich an fortgeschrittene Excelanwender, die sich mit DAX-Funktionen befassen.

Zum Scheitern verurteilt?

Zum Scheitern verurteilt?

Hier einige Punkte, die nach meiner Erfahrung ein Projekt (zumeist unnötig) zum Scheitern bringen können:

  • Zu allererst: Der Rohrkrepierer (der „Klassiker“ sozusagen): In einer Gruppe / Abteilung / Firma entsteht eine Idee, die ein neues Produkt, Projekt mitunter aus einem „brainstorm“ heraus gebiert (nicht selten in der berühmten Kaffee-Pause). In den meisten Fällen bleibt es bei der Idee, eine  Weiterverfolgung scheitert (vermeintlich) an Zeit, Geld und an dem Vertrauen, dass die Idee etwas „wert sei“ und ein hinreichendes Interesse – und hinreichende Unterstützung – besteht, Innovation zu fördern.
  • Schlechte / unzureichende Finanz- und Ressourcenplanung: Manche Projekte starten mit einem nicht hinreichend durchgeplanten Ziel (personeller Einsatz, Bereitstellung von geldlichen Mitteln), das betrifft zum einen das zeitliche als auch das personelle und inhaltliche Ziel. In  manchen Fällen ist das auch nicht im Vorfeld auf den Punkt genau zu definieren, wenn allerdings unterwegs die Luft ausgeht, kann das (mitunter auch kurz vor Erreichen des Ziels) zum Abbruch führen.
  • Der Unfall: Ein Projekt wird aufgrund eines unvorhersehbaren Ereignisses abgebrochen, z.B. Softwaresteuerung für ein bestimmtes Produkt, das aus unterschiedlichen Gründen aus der „Palette“ entfernt wird/werden muss
  • Der Feind des Projektes: In manchen Fällen wird seitens einer Abteilung ohne hinreichende Rücksprache mit einer „durchführenden Instanz“ ein Ziel definiert, dass von Seiten der Hauptverantwortlichen (oder einer „übergeordneten Instanz“) nicht nur „nicht-unterstützt“ sondern aktiv bekämpft wird.

Beispiel:

-Erstellung einer Anwendung mit einer Software, die von der IT-Abteilung nicht gewünscht wird.
-Erstellung einer Software, die Personaldaten mit einbezieht ohne hinreichende Rücksprache mit dem Betriebsrat oder dem verantwortlichen Datenschutzbeauftragten

  • Akzeptanzprobleme: Durchführung eines Projektes z.B. im Software-Bereich, das für den Anwender nicht akzeptiert wird weil u.a. die inhaltliche und abstimmende Rücksprache mit den betreffenden Personen fehlt(e) und das  Personal nach Fertigstellung ein Produkt „vor die Füße geworfen“ bekommt, dass nicht in jedem Fall den organisatorischen Ablauf widerspiegelt.
  • Persönliche Animositäten im Projekt beteiligter Personen (die „Männerfeindschaft“ – wahlweise auch die Frauenfeindschaft). Der oder die Beauftragende wird von einem Kollegen/Kollegin (oder Vorgesetzten) im Projekt derart behindert, bis das Projekt als gescheitert gilt. Beispielsweise  werden immer neue Anforderungen an das Projekt gestellt, die immer wieder erneute Kosten entstehen lassen oder gar technisch nicht umsetzbar sind mit der Folge, dass das Projekt als nicht-mehr-zielführend oder unfinanzierbar gilt. Mitunter wird dann sogar auf ein „altes“ System zurückgeschaltet – und das vielleicht nur, um dem Kollegen eines „auszuwischen“ und dem die entstandenen Kosten vorzuhalten bzw. sein Budget zu verpulvern.

Schon der erste genannte Punkt lässt sich häufiger als gedacht vermeiden. So sind mir Beispiele bekannt, bei denen Mitarbeiter aus eigenem Antrieb eine kleine Software, beispielsweise eine kleine Datenbank oder einen (zunächst) kleinen Makro erstellen, mit der sich eine häufig wiederkehrende Aufgabe deutlich schneller und zuverlässiger erledigen lässt. Nach nur wenigen Wochen stellt sich der eigentliche „Wert“ dieser dann weiter verfeinerten Anwendung heraus die ich später (mit Unterstützung der Fachabteilung) professionell weiterentwickeln und in die Umgebung des Unternehmens fest installiert konnte.

Also: Nur Mut!

Verdammt lang her…

Verdammt lang her, dass ich mein erstes Programm in BASIC geschrieben habe. Das fand damals noch auf einem XT statt, ein Rechnermodell, das heute kaum noch im Museum zu finden ist. Der Code war zeilenorientiert, wurde in einer Shell eingetippt und direkt vom allbeherrschenden Betriebssystem interpretiert. Sollte ein „Makro“ geschrieben werden (was damals durchaus noch nicht so genannt wurde), musste eine Datei umständlich angelegt werden. Dafür stand ein umständlicher Editor zur Verfügung, wer den nicht hatte, konnte den nicht etwa „downloaden“ sondern musste den über Diskette einspielen. Von der schon bald aufkommenden Virenproblematik (die sich anfangs ja noch als geradezu niedlich darstellte, gemessen an heutigen Vorstellungen) möchte ich hier gar nicht sprechen. Ansonsten: 5 ¼-Zoll, DS DD (also double-sided, double density!) das war echter Fortschritt , eine Festplatte war nicht zwingend vorgesehen..

die gute, alte Diskette (möge sie in Frieden ruhen)

Auch Batch-files wurden auf „recht bemerkenswerte Weise“ erstellt, aber immerhin, somit konnten System-Befehle in Serie ausgeführt werden, noch der Begriff „autoexec“ rührt aus dieser Zeit.

Programme werden natürlich seit längerem etwas anders erstellt, für Codierungsprobleme gibt es schon lange Foren. Ohne Internet ist ein Rechner eh halbwegs sinnfrei geworden. Die Programmierung zielt seit Jahren darauf ab, dem Anwender die Erstellung immer weiter zu erleichtern. „Intuitive“ Programmbedienung steht auf dem Lehrplan, das gilt auch für Anwendungsprogrammierung.

Insgesamt muss ich aber konstatieren, dass Programmiersprachen und Entwicklungsumgebungen noch ewig davon entfernt sind den Eindruck zu erwecken, dass Software für Menschen gemacht ist und nicht etwas umgekehrt. Wenn ich mit da beispielsweise VB bzw. VBA vor Augen führe, ist es insgesamt doch noch eine enorme Zappelei und erfordert lange und ausdauernde Erfahrung, bis ein Programm lauffähig und sicher(!) ist. „Ich schreibe mal eben ein Tool“ ist einfach noch immer nicht drin. Auch die Funktions-Sprache von Excel , die durchaus als fortgeschritten gelten darf, ist noch weit davon entfernt, als „intuitv“ bezeichnet werden zu können.

Wer schon mal eine Datenbank konstruiert und erstellt hat, weiß, dass strukturelle Überlegungen und Umsetzungen ohne SQL-Kenntnisse problematisch sind. Nun gibt es Quasi-Clone, die Funktions-Sprech mit SQL für BI-Tools verbindet und ebenfalls als Funktion(en) zur Verfügung stellen. Als Beispiel sei hier die DAX-Funktionssprache von Powerpivot genannt. Um diese Funktionen nun zielgerecht anzuwenden, muss ich mich nun nicht etwa nicht mehr in SQL und Datenbank-Theorie und -Terminologie auskennen, sondern ich muss die Funktionsweise in Parametern pressen und ausrücken. Bei Seminaren stelle ich fest, dass es nicht ganz einfach ist, das einem Excel-Anwender „beizubiegen“ und dabei nicht allzu sehr auf Datenbanktheorie auszuweichen. Und insgesamt kommt es mir so vor, als wenn ich immer noch an meinem ersten BASIC-Programm schreibe. Allzu viel hat sich im Grunde noch nicht wirklich getan in dem Versuch, Software für Menschen zu machen.

Hoch damit – „Monitoring“ einmal anders

Hoch damit – „Monitoring“ einmal anders

In der IT-Branche ist es durchaus nicht unüblich, dass man sich stundenlang vor dem Monitor konzentriert. Die Ausarbeitung von Abläufen, die Umsetzung in Webseiten, Codezeilen,  Auswertungen, Dashboards, SQL-Queries etc. erfordern „Sitzfleisch“.

Vor einigen Jahren hatte ich in meinem Büro einen angesehenen Physiotherapeuten zu Gast, da er ein Rechnungsauswertungstool für seine Praxis benötigte, und sich damit vertrauensvoll an mich wendete. Er sah mir eine Zeitlang bei der Umsetzung seiner Vorstellungen zu diesem Thema „über die Schulter“ und sagte dann: „wissen Sie, wie Sie da sitzen?“ Mit einer „dezenten“, aber angekündigten Übertreibung, nahm er eine Körperhaltung an, die ich schon mal im Zoo bei den Affen gesehen habe.

Ich bin nun durchaus nicht unsportlich oder „unbewusst“. Auch begehe ich jeden Morgen mit etwas Gymnastik, aber das brachte mich doch zum schmunzeln. Ich fühlte mich sogar bis zu einem gewissen Grad „erwischt“, denn an manchen Tagen kenne ich durchaus auch das Gefühl von Nackenverspannungen (oder Schlimmeres).

„Stellen Sie Ihren Monitor höher! Mindestens in etwa auf Augenhöhe“.

Schon mal was von Arbeitsplatz-Ergonomie gehört? Haben Sie sicher. Ich auch. Das Thema nehme ich auch sehr ernst. Zumindest wenn ich darüber lese. Ich bin seinerzeit diesem Rat des Physiotherapeuten unverzüglich und nachhaltig gefolgt und habe den Effekt auch unverzüglich (und nachhaltig!) verspürt!

Kürzlich kam ich mit einer Kollegin in’s Gespräch, sie klagte über Nackenverspannungen und ich erzählte ihr von diesem denkwürdigen Ereignis.

Hoch damit! Ich kann es nur bestätigen. Wenn Sie mit einem Notebook arbeiten, legen Sie etwas wie z.B. ein Buch unter das Gerät um es hinten etwas anzuheben –  oder auch etwas mehr. Ich kann es Ihnen wirklich empfehlen. Oder besser noch: Schaffen Sie sich einen zusätzlichen, separaten Monitor an und richten Sie diesen „mit sich auf Augenhöhe“ aus. Es zahlt sich aus. Auch in den Arztrechnungen. Und auch in der Konzentration. Und auch im Gesamtempfinden!

von der Menschwerdung bis zum Notebook

Pettersson und der große Crash

Kennen Sie Pettersson und Findus? Wenn nicht, Ihre Kinder kennen die Geschichten bestimmt. Schauen Sie sich evtl. mal „Die Geburtstagstorte“ an. Es geht in dieser Geschichte darum, dass Pettersson seinem Kater eine Geburtstagstorte backen möchte und dazu Mehl zu kaufen beabsichtigt. Aus diesem Anlass müsste er in’s Dorf fahren, das klappt aber leider nicht, weil das Fahrrad platt ist. Daher muss er in den Schuppen um Werkzeug zu holen um das Rad zu reparieren. Leider ist der Schlüssel in den Brunnen gefallen und er benötigt eine Angel. Die ist leider auf dem Dachboden des Schuppens und dazu benötigt er eine Leiter, auf dieser hält aber leider gerade der Stier ein Nickerchen und um diesen wegzulocken ist das Grammophon zu reparieren o.ä. und anschließend ist wieder ein gewisser Aufwand erforderlich und so weiter und so fort.

Es geht dann also in dieser Geschichte unentwegt darum, ein aktuell anstehendes n-verschachteltes Problem zu lösen und dabei aber das Gesamt-Ziel nicht aus den Augen zu verlieren, nämlich, falls das in Vergessenheit geraten sein sollte, eine Geburtstagstorte zu backen.

DAU Jones versteht die Welt nicht mehr

Wenn ich die immer verschachtelter werdenden Wirtschafts-News verfolge, insbesondere unter Berücksichtigung der Börsen-Ticker, und dabei Nachrichten von Derivaten auf Derivate und Leerverkaufsverboten, Optionsscheinen und besonderen Termingeschäften, Futures, Forwards und Kassa, Hedge-Fonds und die teils erstaunlichsten Wetten auf Wetten etc. in dichter Folge verabreicht bekomme, verdichtet sich bei mir im Einzelfall der Eindruck, dass Pettersson das Ziel aus den Augen verloren zu haben scheint. In der n-hoch3-fachen Verschachtelungstiefe und der m-abweichenden Problematik ist möglicherweise verloren gegangen, um was es „eigentlich“ geht (was auch in dem Kino-Film „der Große Crash“ recht eindrucksvoll zum Ausdruck kommt). So manche (teils selbsternannten) Fachleute, die ich dann gelegentlich gerne mal nach Details befrage, sind nicht immer wirklich ausnahmslos in der Lage, das Problem für mich nachvollziehbar darzustellen.

Vor einigen Jahren, kam mir ein Satz zu Ohren, dessen Weisheit sich mir einprägte: „Wer nicht in der Lage ist, ein noch-so-komplexes Problem einem Laien in wenigen Sätzen begreifbar darzustellen, hat das Problem selber vermutlich nicht verstanden“. So weit möchte ich nicht in jedem Fall gehen.

Seit Jahren bin ich als Trainer tätig und immer, wenn in einem meiner Seminare ein Teilnehmer etwas nicht begriffen oder den Faden verloren hat (was bei komplexen Themen durchaus schon mal vorkommen kann), erinnere ich mich an diesen Satz und konzentriere mich darauf, zunächst zu erläutern, um „was“ es inhaltlich (zunächst also nicht „technisch“!) geht. Ggf. ist es erforderlich, das Seminarthema dazu temporär zu verlassen und die Problematik noch mal ganz anders anzugehen und anzudenken. In der Regel gelingt es dann auch wieder zum Thema zurückzufinden.

Auch in der Anwendung von Programmen, der Verwendung von Funktionen, dem Aufbau komplexer Dashboards und der Erstellung von zig Code-Zeilen dringt man schon mal in Bereiche vor, die einen nötigen, Funktionen zum funktionieren zu bringen, damit weitere davon abhängende Prozeduren an’s Laufen kommen, die erforderlich sind, um weitere Funktionen zu starten, die andere Prozeduren starten etc. pp.

Pettersson ist also dabei das Grammophon zu reparieren um den Stier zu verjagen, soll heißen: in einer n-fachen Verschachtelungstiefe kann sich durchaus das Gespür für das Gesamtproblem verflüchtigen.

Man muss also stets darauf achten, dass am Ende auch wirklich eine Geburtstagstorte dabei herauskommt :-D.

Die Suchtmaschine

Gerade wurde ausgiebig über das Thema Internetsucht debattiert (auch ohne dass dieser Begriff  genauer definiert oder wissenschaftlich hinreichend beleuchtet wurde). Bei Twitter wurden dazu im Sekundentakt Tweets veröffentlicht. Jetzt ist die Suchtmachine Google 10 Jahre alt geworden und es zeigt sich, dass eine seinerzeit als „nicht unbedingt erforderlich“  eingeschätzte Maschine (schließlich gab es ja bereits einige große Suchmaschinen) nicht nur den Such-Markt, sondern „den Markt an sich“ beherrscht.

Unter SEO kann folgendes verstanden werden: WIE gestalte und optimiere ich meinen Internetauftritt derart, dass die Firma Google Suchergebnisse an den Anwender so zurückgibt, dass die Wahrscheindlichkeit, dass „meine“ Seite dabei auf der ersten Google-Seite der Suchergebnisse erscheint, möglichst hoch ausfällt.

die Suchtmaschine 😀

Google befragte den Angaben zufolge 11.000 Unternehmen, wie sie die Dienst nutzen. Dem Ergebnis scheint entnommen werden zu können, dass das Marketing-A&O die genannte Optimierungsmethode gewidmet zu sein scheint, einschließlich Adwords, Analytics & Co.  „Was die Googlesuche nicht auf der ersten Seite ausspuckt, findet im Internet nicht statt“ [Zitat ZDF].

Kann das aber alles sein? Zitat von Joachim Graf zum Thema SEO-Märchen
(Search-Engine-Milchmädchenrechnung): “ Schließlich bringe nicht jeder Euro, der in Google-Suchwortanzeigen gesteckt wird, automatisch Ertrag – geschweige denn zwölf Euro. “ … „Der Umsatz geht hoch, aber der Gewinn nicht. Suchmaschinen-Optimierung ist eine immer komplexer werdende Materie. Das kann man immer weniger mal nebenbei machen. Die TV-Werbebudgets planen ja auch in der Regel Menschen, die wissen was sie tun.“

Sich derart auf die Virtualität zu verlassen, scheint mir etwas zu „gläubig“, wenngleich natürlich nicht unterschätzt werden darf, dass sich tatsächlich sehr viel zum Thema Informationsbeschaffung (BESCHAFFUNG!) auf das Internet verlagert hat. Aber existiert wirklich eine derart weit verbreitete und teilreflektierte Grundgläubigkeit, dass auf diese Weise(n) Kunden und das Kundenvertrauen(!) an die SEO-Optimisten  verkauft werden kann? Nicht jedes Unternehmen ist ein Reisebüro (Focus: Jeder fünfte Deutsche buchte im Internet) und hieß es nicht kürzlich noch „frag nicht Google, frage Deine Freunde“ (wobei hier die belanglosen Kontakte von Facebook gemeint waren)?.

Interessanterweise haben sich übrigens in den letzten Jahren dennoch einige Unternehmen von der Online- in die Offline-Welt gewagt (und im Einzelfall gewonnen).

Zum Thema „Informationsbeschaffung“ sei an dieser Stelle übrigens folgender Beitrag vom Deutschlandfunk empfohlen: Internetbildung oder: Vom Verlust der Übersicht (verbunden mit dem Hinweis, dass der Autor nicht ausnahmslos mit der in dem Beitrag zu Ausdruck gebrachten Meinung übereinstimmt, da in dem Beitrag m.E. zu sehr davon ausgegangen wird, dass Information und Bildung nahezu ausschließlich auf das Internet und Suchmaschinen beschränkt wird)

Sichern Sie sich Ihr Leben (bevor es ein anderer macht)

Aus aktuellem Anlass kann ich Ihnen empfehlen, sich bei den wesentlichen social-media-Netzwerken mit Ihrem eindeutigen Namen zu registrieren, also bei Facebook, Twitter, Google+ und Co.  Sollten Sie Peter Müller, Christine Meier oder Sascha Schmidt heißen, ist das vielleicht nicht so einfach, diese Namen gibt es bekanntlich mehrfach. Aber stellen Sie sich vor, Sie finden Ihren Namen mit einem Lebenslauf (und einer nenneswerten Anzahl von Einzelaktionen) im sozialen Netzwerk in einer Weise vor, wie Sie es evtl. für „nicht veröffentlichungswürdig“ halten.

Die Ankündigung von Facebook, „das gesamte Leben“ in einer Timeline abzubilden sollte hier Anlass zur Besorgnis darstellen, Datenschutzbeauftragte äußern sich besorgt.   Thilo Weichert, der Datenschutzbeauftragte von Schleswig-Holstein, sagte „Ich kann jedem nur raten, entweder ganz die Finger davon zu lassen oder es sehr vorsichtig zu nutzen“.

Wozu aber der Rat, sich bei den genannten Netzwerken zu registrieren? Auch wenn Sie (bis auf Weiteres) nicht beabsichtigen, die Möglichkeiten dieser Art der Kommunikation für sich zu nutzen, können Sie aber auf diese Weise wenigsten so einigermaßen sicherstellen, dass es auch kein anderer (in Ihrem Namen) tut.

alles im Netz?

Zwar gibt z.B. Twitter an, bei Nichtnutzung des Accounts sich das Recht vorzubehalten, diesen nach sechs Monaten stillzulegen (hoffentlich mit vorheriger Ankündigung), der Name bleibt nur bis auf Weiteres „vergeben“. Das wurde auch lange nicht so strikt eingehalten, es besteht aber seit Anfang 2010 die Möglichkeit,  dass sich jemand anderes diesen Namen sichert. Durch einen Login und Logout (spätestens alle 6 Monate also) sind Sie aber schon wieder im Rennen.

Bevor Sie in diesem Zusammenhang übrigens auf „dumme Ideen“ kommen sollten: Unternehmen können bei Twitter Ihre Namensrechte gelten machen, Beispiel: BBC.

Google+ „erzwingt“ sogar Klarnamen als Voraussetzung für eine Anmeldung (also keine Pseudonyme). Facebook verschickt an die hinterlegte Mail-Adresse regelmäßig „Mahnungen“, wenn Sie sich länger nicht angemeldet haben (inhaltlich handelt es sich nicht um Mahnungen, eher um „Erinnerungen“ die u.a. überraschenderweise die eigenen Nachbarn als „Freunde“ vorschlagen und den Nutzer auffordern sich mal wieder anzumelden). Mit der Methode der unerlaubten Video-Klick-Gefällt-Mir-Weiterleitung, dem sogenannten Clickjacking, und der äußerst unbeliebten Weiterleitung von Daten in die USA hat sich dieser Betreiber ohnehin gelegentlich in die Schlagzeilen gebracht.

Ansonsten sollte selbstverständlich gelten „do no evil“, „erzähle keinen Mist“
bedenke, dass das Netz nichts vergisst.

verloren im Netz?

Das betrifft übrigens auch vermeintlich temporär eingestellte Fotos, Videos, Kommentare und dergleichen. Mit dem Löschen ist das eh so eine Sache. Die Dateien werden durchaus nicht verlässlich sofort physisch gelöscht. „Wenn ich das Hinweisschild nach Hannover entferne, ist dadurch nicht auch Hannover weg“ (Zitat Sascha Lobo auf der Veranstaltung im „Herrenhäuser Gespräch: Wie beeinflusst das Internet unser kulturelles Gedächtnis?“ am 30.09.2010). Man muss sich darüber im Klaren sein – und darauf muss ich besonders „junge Leute“ gelegentlich hinweisen, dass diese Inhalte bleiben! Und beliebig kopiert werden können! Und eben diese Inhalte können einem später nochmal zum Verhängnis werden. Mit der genannten timeline wird das noch etwas „dichter“. Interessanterweise haben sich im Netz Anbieter etabliert, die im Auftrag das Netz durchstöbern und unerwünschte Inhalte, die „meinen content“ auf unliebsamen Seiten entfernen, bzw. zu entfernen versuchen.

Wenn Ihnen Ihr Name lieb ist, registieren Sie sich. Zumindest bei Googleplustwitterfacebook und sichern Sie sich IHREN Namen. Behalten Sie die Kontrolle über den „content“, der in Ihrem Namen verbreitet wird (und merken Sie sich irgendwie irgendwo das Passwort;-).

Lesenswert:  Unirgnorierbar (von Sascha Lobo)

In diesen Sinne hier übrigens auch gerne einen Verweis auf Netzdurchblick.de:

Präsenzseminare vs e-Learning

Präsenzseminare vs e-Learning

Mit dem Thema Präsenzseminare / Offene Seminare / e-Learning-Unterstützung und Video-Tutorial-Nachschlagewerke mache ich seit Jahren folgende Erfahrungen:

Bei Präsenzseminaren – besonders bei etwas komplexeren Themen stelle ich fest, dass es am Ende eines ein- oder zweitägigen Seminars heißt „..das war jetzt sehr interessant, viele Informationen, … aber ob ich das morgen noch alles weiß… und für meine Belange transferieren kann…“  (in Kurzform;-).

Meine jeweiligen Hinweise auf Seminar-Begleit-Skripte (die ich u.a. auf meinen Seminar-Online-Seiten für meine Teilnehmer meiner Seminar jeweils für einen bestimmten Zeitraum zur Verfügung stelle) wurden stets „mit Erleichterung“ zur Kenntnis genommen, aber nicht im durchdringenden Maße wahrgenommen (wie ich in den Web-Statistiken verifizieren konnte). Dafür habe ich durchaus vollstes Verständnis; am Arbeitsplatz hat dann wieder jeder mehr als genug zu tun, genug zu tun, zu lesen, genug Mails zu schreiben, zu recherchieren, zu lesen, zu beantworten, Webinhalte und Manuals zu durchstöbern etc.

Die Zugriffszahlen auf die Seminar-Seiten haben sich erst definitiv dann erhöht, als ich mindestens die Abläufe per Video-Tutorial „skizziert“ und zur auf meinen Seminarseiten Verfügung gestellt habe.  Als Aufzeichnung-Tools habe ich anfangs meist Jing verwendet, mittlerweile sind es längst professionelle Werkzeuge)

Diese Erfahrung verfestigte sich im Laufe der Zeit und führte im Jahr 2009 dazu, zusammen mit einem Kollegen eine Online-Plattform zur Verfügung zu stellen, die es „der Allgemeinheit“ ermöglicht, clips zu einer Vielzahl von typischen Seminarthemen ansehen zu können (kostenlos aber nicht umsonst 😀 – zumindest nicht für den Nutzer: seminarclip.de)

wie war das noch ???

Fazit:

  • Text = klasse (und auch weiterhin wichtig und weitgehend unverzichtbar)
  • audiovisuell =  erkennbar hohe Akzeptanz, deutlich einprägsamer, zumindest bei meinem Themenbereich, der sich auf die Anwendung von Software bezieht (aber sicher auch bei anderen).

Voraussetzung ist allerdings stets eine gute Verschlagwortung, die es einem auch in der recht speziellen Terminologie verfassten Funktionalität ermöglicht, sein gewünschtes Thema zu finden.

Ein interessantes Zitat von Torsten Luedecke (Moderatorder Xing-Gruppe e-Learning-Professionals) „…die Akzeptanz beim Teilnehmer sollte bestimmen, wie wir unsere Inhalte aufbereiten. Hier gibt es sicherlich Unterschiede in den Zielgruppen – ich denke an Bildungsgrad, Technikaffinität, Lernbereitschaft, etc.“

Dem kann ich zustimmen.

Impressum │ über mich

Impressum │ über mich

Thorsten Lieder, geb. 1961, Hannover

Senior Business Intelligence Consultant | Business Analyst | Visual Analytics  & Visualization
Microsoft POWER BI, TABLEAU – IT-Trainings seit 1990 | Access- & Excel-Experte

– Managementberichte nach IBCS® – International Business Communication Standard
(Controller Akademie AG München)
– Microsoft Power BI for Data Platform (MPN14353) – Microsoft Partner University
– Microsoft Power BI for Data Analytics (MPN14350) – Microsoft Partner University

Büro:
Eleonorenstraße 18
Aufgang 1
30449 Hannover
0511 – 999 2551
lieder@tensai.de

Ausbildung: Organisationsprogrammierer, “Train-the-Trainer – Blended Learning” in Barcelona (via Synergie-München), Industriekaufmann IHK

Download: PROFIL PDF
Download Kurz-CV (PDF)
Download Short-CV (EN) – translated by deepl.com

XING-Profil | Gulp-Profil

 

Ust-ID: DE156269498