Sinn und Unsinn einiger IT-Kennzahlen

PCGestern hab ich einen Artikel über Leistungskennzahlen in der IT gelesen. Den Artikel an sich fand ich jetzt nicht besonders erwähnenswert.

Allerdings ist hier eine Kennzahl gefallen, die bei mir echt die Frage über Sinn und Unsinn einiger Kennzahlen und der dazugehörigen Studien auf warf.

Die International IT Benchmark Association (IITBA) hatte die Auslastung der IT-Mitarbeiter in Unternehmen untersucht.  Hierbei hatte man nun festgestellt, dass ein Mitarbeiter in der IT durchschnittlich 105 User zu betreuen hat.

Die Zahl klingt vielleicht im ersten Moment ganz toll, aber wenn man sie ein bisschen hinterfragt, kommen doch schnell die ersten Fragezeichen.

Denn es macht doch einen Unterschied, ob man als IT-Mitarbeiter Poweruser in einer Entwicklungsabteilung zu betreuen hat oder ob die User ganz artig im Callcenter sitzen und den PC nur anrühren, um ein paar Informationen zu bekommen.

Zudem stellt sich bei mir die Frage über die Zählweise. Wenn sich zum Beispiel fünf Mitarbeiter in der Fertigung einen PC teilen, wurden diese dann als fünf oder nur ein Nutzer gezählt? Dass der Betreuungsaufwand pro Benutzer dann auch stark variiert, ist wohl auch klar.

Allein bei diesen beiden Fragen merkt man schnell, dass mit allgemeinen Aussage nicht viel zu gewinnen ist.

Wenn man nun noch bedenkt, dass externe IT-Dienstleister, so entnehme ich es dem Artikel, nicht mit gezählt wurden, stellt sich wohl bei jedem die Frage über den Sinn dieser Befragung und der Aussagekraft des Ergebnisses.

Anders lässt es sich auch nicht erklären, weshalb die Streuung bei der Auslastung der IT-Mitarbeiter zwischen fünf und ganzen 1000 (!) IT-Nutzern lag.

Kennzahlen können nützlich sein, keine Frage. Aber diese sollten immer für den jeweiligen Fall gewählt und angepasst werden. Und wenn man Untersuchungen macht, dann sollten nicht Äpfel mit Birnen verglichen werden.

Ein Untersuchung der IT-Betreuung hätte wirklich interessant sein können, z.B. wenn man nach Branche und Tätigkeitsbereich der User unterschieden hätte. Wer weiß, vielleicht hat die Studie das sogar getan, dem Artikel war dies aber nicht zu entnehmen.

Schade eigentlich, man hätte aus der Umfrage auch mehr machen können.

Comments
  1. Mike
  2. Iri
  3. Peter