Stutzig wurden auch andere Autoren1Cândido, C. J. F., & Santos, P. (2015). Strategy implementation: What is the failure rate? Journal of Management & Organization, 21(2), 237–262. und Slater, R. (2015). Leadership genius: 40 insights from the science of leading. Abingdon, UK: Teach Yourself.: es gibt keine Daten um pauschal 70% Scheitern zu belegen. Die (wenigen) empirischen Studien, die es versuchten, leiden an lauen Definitionen von Begriffen und Sachgebiet und damit methodischen Schwächen.
Der Ursprung der Zahl ist halbwegs klar. Sie kommt aus einem anderen Kontext als die Verallgemeinerung zu alle Change-Initiativen. Hammer & Champy schrieben 1993 ein Buch2Hammer, M., & Champy, J. (1994). Reengineering the Corporation: A Manifesto for Business Revolution (Bd. 10). http://doi.wiley.com/10.1002/qre.4680100613 und gaben diese 70%-Fehlrate als ihre subjektive Einschätzung für Reengineering-Vorhaben — ein anfangs der 90er modischer Begriff, der sich eher an IT-Restrukturierungen und angepasstem Führungsverhalten abarbeitete.
Die Autoren versuchten zu relativieren3Hammer & Stanton, 1995, S. 14, zitiert nach Hughes, M. (2011). Do 70 Per Cent of All Organizational Change Initiatives Really Fail? Journal of Change Management, 11(4), 451–464. https://doi.org/10.1080/14697017.2011.630506 und abzuwiegeln …
»Unfortunately, this simple descriptive observation has been widely misrepresented and transmogrified and distorted into a normative statement (...)«
Hammer & Stanton, 1995
… , doch zu spät. Das Meme war schon in der Welt und nicht mehr zu bremsen: 70% klingen zu plausibel und furchteinflössend um nicht die perfekte Steilvorlage für das Marketing allerlei Beratungsdienstleistungen zu sein.
Was falsch ist, wird durch Wiederholung nicht richtiger und geht auch nicht leicht wieder weg. Die Missinterpretation einer subjektiven Einschätzung wurde durch wiederholt ungeprüfte Zitate zu einer universellen Wahrheit.
Dazu wurden 563 populäre Bücher (Verkaufsrang bei Amazon) zu Change Management ausgewählt. Die meisten schienen one-trick-ponies zu sein und wurden mangels interner Validität in der Folge wieder aussortiert.
Die verbleibenden 23 Büchern hatten drei Eigenschaften gemeinsam:
Kann es sein, dass in den Binsen der Veränderungsberatung noch weitere false facts lauern — scheinbar plausible Meinungen, doch Aussagen ohne evidente Grundlage?
Quelle5Have, S. ten, Have, W. ten, Huijsmans, A.-B., & Otto, M. (2017). Reconsidering change management: Applying evidence-based insights in change management practice (First Edition). Routledge, Taylor & Francis Group. 978-1-315-64601-5
Die Auswahl von 18 Aussagen ist breit und tief6Have, S. ten, Have, W. ten, Huijsmans, A.-B., & Otto, M. (2017). Reconsidering change management: Applying evidence-based insights in change management practice (First Edition). Routledge, Taylor & Francis Group. 978-1-315-64601-5, einige herausgegriffen:
Die letzte der achtzehn Aussagen9Have, S. ten, Have, W. ten, Huijsmans, A.-B., & Otto, M. (2017). Reconsidering change management: Applying evidence-based insights in change management practice (First Edition). Routledge, Taylor & Francis Group. 978-1-315-64601-5 — S.5 irritiert: »Self-managing teams perform better in realizing change than traditionally managed teams«:
»Selbstverwaltende Teams sind in der Umsetzung von Veränderungen besser als traditionell verwaltete Teams.«
Das ist doch der Kern der agilen Erzählung! Lass die Leute machen, räume Hindernisse aus dem Weg, vertraue und sorge für gute Umgebungsbedingungen, dann wird alles besser.
Das soll nicht so sein, keine Evidenz haben?
Potzblitz.
»(...) the positive effect on performance is greatest for self-managing teams dealing with high-tech novelty and radical innovation«
Patanakul, Chen & Lynn (2012)
Die Verallgemeinerung wäre problematisch. So, wie es da steht, ist es korrekt: in radikalen Innovationen im Weisswasser neuer Technologien ist Selbstorganisation besser als organisiert werden.
Die Weiterbildung von Managementpersonal geschieht anders als bei Medizinern selten an Hochschulen und eher über snackified content in der einschlägigen Wirtschaftspresse. Dort geschieht zuverlässig ein Wiederkäuen der meist ballaststoffarmen Zitate von Management-Gurus oder Beratungsfirmen. So schaffte es auch die furchteinflössende Aussage »70% aller Change-Initiativen scheitern.« Doch weder die kolportierten 70% noch irgendeine andere Zahl sind belegt.
Naturgemäss ist jedes Unternehmen anders und Situationen immer verschieden. Es wäre ja schon etwas gewonnen, würden jene Praktiken und Glaubenssätze isoliert und emeritiert, für die es keinerlei Wirkungsbelege gibt.
Kein Mangel besteht an validiertem Wissen: die Organisationsforschung hat viele nützliche Erkenntnisse. Wahrgenommen werden sie vor allem in der eigenen Bezugsgruppe, leider weniger in der Unternehmenspraxis.
Und selbst vor der eigenen peer group warnen etwa Barens, Rousseau und Briner 201411Barends, E., Rousseau, D. M., & Briner, R. B. (2014). Evidence-based management: The basic principles. Amsterdam, NL: Center for Evidence-Based Management. und 201612Barends, E. (2016). A Reader’s Guide to Evidence-Based Management. Controlling & Management Review, 60(1), 36–40. https://doi.org/10.1007/s12176-015-0648-1 sinngemäss, dass die eigene Zunft nicht ausschliesslich solides Material anzubieten hat. Nun gut, unter jedem Dach ein eignes Ach — weshalb sollte das auch in dieser Disziplin anders sein.
Ein bisschen und kurz kann man sich schämen dafür, unkritisch und naiv Meinungen zu übernehmen ohne den Gehalt zu prüfen.
Auf welchen Wegen entsteht Glaubwürdigkeit?
Überzeugungen und Glaubenssätze verwenden plausible Bilder oder Metaphern. Das spricht unsere Emotionen an und dimmt die logische Alarmanlage rationaler Überprüfung.
Eminenz ruht auf rhetorische Qualität und starker Meinung. Im weiten Feld populärer Managementmythen ist das gut beobachtbar. Die Eminenz prominenter, reichweitenstarker ‘Vordenker’ ist noch dazu schlecht unterscheidbar von Meinungen und Glaubenssätzen.
Evidenz operiert mit kritischer Reflexion, kontextueller Sensibilität und rationalem, selbstkritischem Denken, um die Verwendung von Fakten, Wissen und Erkenntnissen aus der Forschung und der Zuverlässigkeit von Quellen zu beurteilen.
Evidenz ist der mühsamste Weg, hart, lang und steinig. Entschuldigen wir uns einfach kollektiv damit, dass wir als soziale Wesen weder der Emotion noch starken Mythen rational entfliehen können.
Evident ist ein nachgewiesener Wirkzusammenhang. Zustand A → Intervention B → Ergebnis C
Nun kann man Randbedingungen einschränken und sehen, ob ABC noch immer gilt. Manches gilt immer und überall (Apfel → loslassen → Apfel am Boden), manches andere nur unter spezifischen Bedingungen (Kopfschmerzen → ASS → keine Kopfschmerzen).
»Apfel auf der ISS loslassen« führt zu anderen Ergebnissen weil andere Bedingungen.
In der evidenzbasierten Wirkungsprüfung medizinischer Interventionen gibt es das Cochrane-Verfahren13Higgins, J., Thomas, J., Chandler, J., Cumpston, M., Li, T., Page, M., & Welch, V. (2021). Cochrane Handbook for Systematic Reviews of Interventions (v6.2, 2021). Abgerufen 5. April 2021, von https://training.cochrane.org/handbook/current. Es bietet einen umfassenden Überblick über Forschungsergebnisse und Metaanalysen randomisiert kontrollierter klinischen Studien zu einer Indikation oder Therapie.
Für die Sozial-, Management- und Organisationsforschung sind Evidenzen schwieriger zu erbringen: Interventionen in sozialen Systeme wie Unternehmen widersetzen sich kontrollierter Randomisierung, Sozialforscher verwenden andere Methoden14unter anderen ein Standardwerk: Petticrew, M., & Roberts, H. (2006). Systematic reviews in the social sciences: A practical guide. Malden, MA: Blackwell..
Für Management- und Organisationsmethoden gibt es kein Cochrane-Verfahren, dafür aber etwa das nicht-kommerzielle Center for Evidence-Based Management (CEBM)15What Is Evidence-Based Management? – Center for Evidence Based Management. (o. J.). Abgerufen 5. April 2021, von https://cebma.org/faq/evidence-based-management/ und eine hartnäckige Methode namens Rapid Evidence Assessments (REA)16eine von vielen Quellen zu diesem standardisierten Verfahren: Thomas, J., Newman, M., & Oliver, S. (2013). Rapid evidence assessments of research to inform social policy: Taking stock and moving forward. Evidence & Policy: A Journal of Research, Debate and Practice, 9(1), 5–27..
REA wurde entwickelt, um akademische Beiträge objektiv und reproduzierbar zu filtern und nach einer gründlichen Bewertung des Inhaltes Rückschlüsse auf Wirkungen ziehen zu können.
Anders als eine Literaturübersicht ist ein REA transparent, überprüfbar, reproduzierbar und daher weniger voreingenommen. Strukturelle Denkfehler (nach Bestätigung der eigenen Sicht suchen, Gegenläufiges ignorieren und Dutzende weitere) können eher im Zaum gehalten werden.
Der “Beweis”, der evidence aus der Abkürzung REA können Informationen, Fakten oder Daten, die eine Behauptung, Annahme oder Hypothese unterstützen oder widerlegen. Das kann wissenschaftliche Forschung sein oder nicht-systematische Praxiserfahrungen. Es geht darum, quantitativ und qualitativ bewertbar zu machen, ob eine Erkenntnis generalisierbar ist oder in spezifischen Randbedingungen gilt. In zwölf standardisierten Schritten werden systematisch Primärstudien in 5 Güteklassen, von A+ bis D bewertet. A+ wäre ein systematischer Review mit Metaanalyse randomisiert-kontrollierter Studien, D wäre eine Querschnittstudie mit geringster Verallgemeinerung.
Ergebnis einer REA ist eine nachvollziehbar ausgewogene Bewertung dessen, was in der wissenschaftlichen Literatur über eine Intervention, einen Anspruch oder ein praktisches Problem bekannt ist.
Genau das ist das Schwierige an der Evidenzprüfung:
»Absence of evidence is not evidence of absence.«
(Sagan, 1996, p 213)
Wenn es keine handfesten Beweise in Daten, Zahlenreihen und Statistiken gibt, dann ist das kein Beweis für deren Nichtvorhandensein, allenfalls ein Indiz. Vielleicht hat das nur noch niemand nachzumessen versucht und es gibt deshalb keine Studie dazu.17Sagan, C. (1996). The demon-haunted world: Science as a candle in the dark. New York, NY: Random House. S. 213 Oder es interessiert niemanden so sehr, um sich die Mühe zu machen.
Wenngleich es der Mühe wert wäre.
Jeffrey Pfeffer und Robert Sutton zeigen in einem längeren Beitrag18Pfeffer, J., & Sutton, R. I. (2006, Januar 1). Evidence-Based Management. Harvard Business Review. https://hbr.org/2006/01/evidence-based-management ein ganzes Bündel konventioneller Annahmen und fragwürdiger Managementweisheiten:
Das ist einer der vielen strukturellen Denkfehler, gegen die sich zu wehren viel Energie und Aufmerksamkeit kostet. Dieser starke Bias lässt uns Beweise so interpretieren, dass sie unsere bestehenden Überzeugungen bestätigen und gegenläufige Beweise ignorieren.
Funktionierende Wissenschaft versucht, diesen Tunnelblick zu verhindern.
Dazu muss man die Ergebnisse nur wahrnehmen und in die eigene Sicht integrieren. Auch wenn es schwerfällt und scheinbare Wahrheiten in sich zusammenfallen lässt.
Der Konstruktivismus beschreibt diese Phänomene konstruierter Wirklichkeit. Erschreckend erschöpfend können wir sie in den Demonstrationen von Pandemieleugnern beobachten.