Matthias Horx  Theorie der Trend- und Zukunftsforschung

Theorie der integrierten Prognostik

Interessieren Sie sich für Hintergründe, Philosophien und
vertiefte Methodik-Probleme der prognostischen
Wissenschaften?

Diese Texte sind im Rahmen meines Prognostik-Seminars
an der Zeppelin-Universität entstanden.
Sie sind "work in progress" und werden ständig
ergänzt und weitergeschrieben.

Eine Zusammenfassung der wichtigsten Ansätze der Integrierten Prognostik finden Sie hier:
Integrierte Systemische Prognostik.

Ich freue mich über Kommentare, Ergänzungen, Kritik, Anregungen und Literaturhinweise:
>>> Kommentar verfassen

HAUPTKAPITEL (zum Aufklappen auf ein Kapitel klicken):

< < voriges Kapitel (3.07) Übersicht nächstes Kapitel (3.09) >>

3.08  Komplexität und Emergenz

Komplexität, ob in der Biologie oder anderswo, liegt nicht außerhalb unserer Verständnisfähigkeit, sondern sie erfordert eine neue Art von Verständnis.
Sandra Mitchell

Eine der wichtigsten Aufgaben der integrierten Zukunftsforschung ist die Analyse von komplexen Systemen auf ihre „Zukunftstauglichkeit” hin. Ist ein System (es kann sich um ein soziales, ökonomisches, kulturelles, ökologisches System handeln) robust, stabil oder fragil? Wird es demnächst in einer Krise geraten, und welche wahrscheinlichen Folgen hätte eine solche Krise?

Grundsätzlich steigt die Komplexität eines Systems mit der Anzahl an Elementen (oder Akteuren), der Anzahl an Verknüpfungen zwischen diesen Elementen sowie der Funktionalität dieser Verknüpfungen. Dabei lassen sich folgende Kriterien analysieren:

  • Innere Hierarchie
  • Innere Differenzierung (Dezentralität/Zentralität)
  • Vernetzung innerhalb der Subsysteme
  • Vernetzung der Subsysteme mit dem „Zentrum”
  • Innere Feedback-Schleifen und Umgebungskomplexität.

All diese Faktoren „steuern” ein System, beziehungsweise sie definieren die „Selbststeuer­fähigkeit” eines Systems, seine Anpassungsfähigkeit an Veränderungen, die entweder durch innere Prozesse oder durch Veränderungen in den Umgebungsbedingungen hervorgerufen werden.

Die „Kleine-Welt-Theorie”

Das Kleine-Welt-Phänomen (small world phenomenon) wurde vom Psychologen Stanley Milgram 1967 benannt. Es wurde ursprünglich als „Sechs-Personen-Theorem” bekannt. Die Annahme: Jeder Mensch auf der Welt ist mit jedem anderen über eine überraschend kurze Kette von sechs Bekanntschafts-Beziehungen verbunden. Aber diese direkte Vernetzung entsteht nicht durch die tatsächliche DICHTE der Vernetzung – also dadurch, dass JEDER mit JEDEM vernetzt wäre. Selbst Facebook leistet dies nicht. Die Vernetzung „sucht” sich vielmehr ihren Weg durch die wenigen vorhandenen Verbindungen. Es handelt sich also im eigentlichen Sinne um ABKÜRZUNGEN in teilvernetzten Systemen.

In der Systemforschung sind Kleine-Welt-Netzwerke diejenigen Systeme, die eine „ausgewogene Vernetzungskonfiguration” aufweisen. Das heißt, sie sind weder „überkomplex vernetzt” (jeder Punkt ist mit jedem verbunden) noch nur zufällig und lose vernetzt (unterkomplex). In Kleine-Welt-Systemen kann man Punkte von einer Seite des Systems zur anderen schnell erreichen, es existieren allerdings Knotenpunkte („Hubs”), über die sehr viele Impulse laufen. Das Verhältnis zwischen Zentralität und Dezentralität ist ausgewogen. Solche „idealen” komplexen Systeme weisen eine Mischform zwischen Vernetzung und Entkoppelung auf. Es gibt ihn ihnen „Teilautonomien”, die aber trotzdem in kohärente Strukturen eingebunden sind.

Das menschliche Hirn z.B. ist ein klassisches „Small World Network”, weil so gut wie alle Verschaltungen über ca. 20 „Knotenpunkte” laufen. Die Speichersysteme der unterschiedlichen Hirnregionen können so schnell „ausgelesen” und prozessiert werden; es herrscht Struktur bei gleichzeitiger Diversität. Olaf Sporns und seine Kollegen von der Indiana University haben in ihrer Arbeit zur Simulation eines Gehirn nachgewiesen, wie die typischen „Arbeitsmuster” eines Hirns nur in einer solchen Kleine-Welt-Struktur entstehen können. Sind die Neuronen nur mit ihren direkten Nachbarn verbunden, entsteht nur ein punktuelles Aufflackern von Aktivität. Sind ALLE Neuronen miteinander verbunden, wechselt das virtuelle Hirn zwischen zwei Zuständen hin und her, bei denen fast alle Zellen aktiv oder inaktiv sind. Differenzierte Muster, die den echten Hirnaktivitäten ähneln,  entstehen erst durch eine Mischung aus kurzen und langen Verbindungen.

Olaf Sporns, Dante R. Chialvo, Marcus Kaiser and Claus C. Hilgeta, Organization, development and function of complex brain networks, in „Trends in Cognitive Sciences”

Feedback-Schleifen

Bei einer Operation sollte man zuallererst  immer auf den Anästhesisten hören. Warum? Wenn er einen Fehler macht, verstirbt der Patient. Dies ist eine besonders drastische Rückkoppelungs-Schleife, die dazu führt, dass Anästhesisten so gut wie immer Spitze in ihrem Beruf sind. Es gibt wenige „mittelmäßige” Anästhesisten. Ein Neurologe hingegen, oder ein Röntgenologe, „macht niemals etwas falsch”, weil die Konsequenzen seiner Handlungen nicht unmittelbar wirksam werden. Wenn beim Bestrahlen kein Ergebnis herauskam, ist dies keine signifikante Tatsache. Jedenfalls nicht unmittelbar. Wenn Strahlenschäden entstehen, dauert das oft Jahrzehnte, bis daraus schlimmere Folgen für den Patienten entstehen.

Feedback-Schleifen sind für die Vitalität (oder Adaptivität) eines Systems von entscheidender Bedeutung. Menschen, die keinen Schmerz empfinden, geraten in große Gesundheitsprobleme. Gesellschaften ohne Feedback von den Bürgern, sprich Demokratie, erstarren schnell und geraten in existentielle Krisen. Der Bankenberater, der seinen Bonus sicher hat, wird früher oder später seine Kunden über den Tisch ziehen, oder schlichtweg sich nicht mehr anstrengen.

Wenn Kinder keine Antwort erfahren – manchmal auch ein Nein – entstehen keine ganzheitlichen Individuen. Durch die Analyse von Feedback-Schleifen lässt sich echte (robuste) von scheinbarer (fragiler) Komplexität unterscheiden. Komplexität ohne Feedback ist meist nur „kompliziert”; viele Elemente, großes Durcheinander. Erst die Wirksamkeit der inneren und äußeren Feedback-Schleifen bringen Ordnungen in Systeme. Sie lassen Systeme „lächeln”.

Die Krise Europas zeigt, wie wichtig effektive Rückkkopplungs-Schleifen für die Stabilität politischer Systeme sind. Die europäischen Länder sind sehr unterschiedlich, und auf vielfältige Weise vernetzt. Das Regelsystem Europas verfügt jedoch über zu wenig „Real-Feedback”. So konnten einzelne Länder Schulden machen, ohne dass dies unmittelbare Konsequenzen hatte, und diese Schulden, ähnlich wie die Banken, der (europäischen) Allgemeinheit aufbürden. Das „Brüssel-System” ist zu wenig demokratisch legitimiert. Europa wird seine inneren Regelkreise und Rückkoppelungs-Systeme neu erfinden müssen, um eine Zukunft als Entität zu haben.

An welchem Punkt sind komplexe Systeme nicht mehr in der Lage, ihre ständigen Adaptions-Leistungen zu vollbringen? Wo ist der Tipping Point? Dafür gibt es bestimmte Gesetze, die Systeme daran hindern, in einen Zustand der instabilen Kritikalität zu geraten.

Die Komplexitäts-Dissonanz (Complexity mismatch)

Eine der klassischen Ursachen für Krisen in komplexen Systemen ist das so genannte „complexity mismatch”. Dahinter steht eine Grundregel:
Ein Regelungs-System muss mindestens genauso komplex sein wie das System, das es regelt, um die Stabilität des Gesamt-Systems zu garantieren.
Komplexe Systeme haben viele unterschiedliche Akteure, die miteinander in Widerspruch geraten können und müssen. „Komplexität wird auch geschaffen durch sich widersprechende Zielsetzungen, Dilemmata und nicht determinierbares Verhalten autonomer Systemeinheiten” (Wikipedia). Wenn die Subsysteme allerdings ein völliges „Eigenleben” zu führen beginnen, entsteht früher oder später eine Regression – das ganze System muss zerfallen und/oder sich auf einer niedrigeren Komplexitätsstufe neu konfigurieren.

Auch hier finden wir zahlreiche Analogien in Biologie und Ökonomie. Die Entwicklung der Hirne hat sich synchron zur Binnendifferenzierung von Organismen entwickelt. Waren Hirne zunächst einfache Zellbündelungen, die rudimentäre Koordinationsfunktionen übernahmen, wuchsen sie in komplexen Organismen zu „Multisteuerungen” heran, die schließlich auch Wünsche, Träume und Emotionen ermöglichen. Für alle Organismen gilt, dass Größe und Format der Hirne den (adaptiven) Aufgaben des Körpers entsprechen.

Jäger- und Sammler-Gesellschaften entwickelten eine relativ einfache zentrale Herrschafts- und Koordinations-Funktion: Den Häuptling oder Schamanen. Erst in Überschuss-Gesellschaften entstanden Macht-Hierarchien, die allerdings, wenn sie zu hierarchisch wurden, wieder zum Zerfall der Gesellschaft führten. Je nach Komplexität der Umwelt, technischem Stand und Ökonomie passten sich die Herrschaftsformen immer wieder den gesellschaftlichen Komplexitäts-Graden an.

Auch in komplexen Unternehmen gilt, dass die Führung entscheidend ist. Wenn aber ALLES nur durch Führung entsteht, verliert das Unternehmen seine Dynamik. Es wird kopflastig, und dadurch wird die Motivation der Mitarbeiter zerstört. Entscheidend ist immer die angemessene Komplexitäts-Balance zwischen Autonomie (der Teilsysteme) und Koordination der Führung.

Das Prinzip der Komplexitätsdissonanz („complexity mismatch”) findet seinen Ausdruck in allen ernsthaften Krisen – politischen wie sozialen, persönlichen wie technischen. Beim Atomunglück von Fukushima waren nicht nur die technischen Systeme unterkomplex gegenüber einem Erdbeben der Stärke 9 und einem 8-Meter-Tsunami. Auch die Management-Systeme stellten sich als überfordert heraus. Im Krisenstab der Betreiber­firma TEPCO herrschte das „Gesichtswahrungs-Prinzip”. Der Top-Manager von TEPCO verabschiedete sich gleich nach dem Unglück mit einem Nervenzusammenbruch in eine Klinik. In Katastrophenfällen braucht man jedoch eine handlungsfähige Kommandostruktur.

In Sozialsystemen lässt sich der complexity mismatch am Gefälle zwischen der realen und der eigentlichen Bedürftigkeit ermessen. Reine Verteilungssysteme operieren unterkomplex, weil sie nur Geld umverteilen statt das, worauf es wirklich ankommt: Sozial­Kompetenz, Kommunikationsfähigkeit, Inklusion...

Das Vielfalts-Gesetz: Law of Requisite Variety

Das „Gesetz der erforderlichen Variabilität” („Law of Requisite Variety”) bildet eine weitere Variable komplexer Systeme und ihrer Robustheit. Vereinfacht ausgedrückt:
Entscheidend für die Überlebensfähigkeit eines Systems ist seine innere Vielfalt, die es zu vielfältigen Reaktions-Varianten befähigt.

Variabilität lässt sich auch in „Störungstoleranz” ausdrücken. Oder noch eine Stufe weiter: In Störungs-Bedürfnis! Familien zum Beispiel sind komplexe soziale Gebilde, die aus vielen Balancen, Unbalancen und Interdependenzen zusammengesetzt sind. Sie bleiben” vital” weil in ihrem Inneren ständig Umwälzungen stattfinden – Aufstände, Rebellionen, Macht­verschiebungen, Missverständnisse, Streits, Versöhnungen. Ist all dies nicht der Fall, entstehen „Zombie-Familien”, in denen sich die Neurosen verfestigen. Man könnte sogar formulieren: Familien SIND Störung! Das ist vielleicht der Grund, weshalb beim näheren Hinsehen alle Familien irgendwie als „verrückt” erscheinen (oder hat jemand schon eine „normale” Familie gesehen?).

Stellen wir uns eine Fabrik vor, in der alle Teile perfekt funktionieren. Alle Maschinen, Handlungen, Menschen, sind 100-prozentig aufeinander abgestimmt. Eine solche Fabrik hätte einen gewaltigen Output, wenn sie „richtig” laufen würde. Allerdings käme im Falle eines auch nur geringsten Versagens – der Fehlfunktion eines Ventils, der Krankheit eines Arbeiters – die ganze Produktion zum Stillstand. Eine solche Fabrik würde niemals in die Produktion gehen, weil es niemals gelingen kann, ein komplexes System komplett fehlerfrei zu „fahren”. Entscheidend für die Funktionsfähigkeit sind vielmehr die Variablen in den TEILsystemen, die mit Störungen möglichst schnell und effektiv umgehen. Dies gelingt nur, wenn diese Systeme eine hohe (Teil-)Autonomie aufweisen.

Ein gutes Studienobjekt für innere Diffenzierung bieten „High-Reliability Organizations” (HROs). Gemeint sind Organisationen wie Militär, Katastrophenhilfe oder die Feuerwehr, die in unübersichtlichen und stets wechselnden Krisenumfeldern operieren, aber hierarchische Strukturen aufweisen. Die Organisationsforscher Karl E. Weick und Kathleen M. Sutcliff untersuchten in ihrem Buch „Managing the Unexpected” die Adaptivität dieser Organisationen. Karl E. Weick hat schon 1996 mit seiner Untersuchung von Feuerwehr-Desastern in den USA die Grundlagen für eine Variabilitäts-Theorie der Praxis gelegt. Bei zwei Waldbränden in den USA, 1949 in Mann Gulch, 1994 in Glenwood Springs, kamen 27 Feuerwehrleute ums Leben, weil sie von der explosionsartigen Ausbreitung des Feuers überrascht wurden, vor allem aber, weil sie der Aufforderung „Drop your tools!” nicht nachkamen. Sie starben mit ihren Motorsägen in den Händen, so nah an sicherem Gelände, dass sie ohne Geräte die entscheidenden Minuten schneller gewesen wären. Hier stellt sich die Problematik des Ent-lernens.

Robustheit oder Resilienz – also die Adaptivitäts-Fähigkeit von Organisations-Systemen – lässt sich an folgenden Eigenschaften darstellen:

  • Hohe Interaktionsgrade von vielen eigenständigen „Agenten” innerhalb des Systems
  • Vielfältige Rückkopplungs-Schleifen („feedback loops”), mit denen die Teile des Systems kommunizieren
  • Eine mehrschichtige (multilevel) Organisation, die auch ungewöhnliche Szenarien in die Planung miteinbezieht
  • Kontinuierliche Anpassungsoperationen an veränderte Umweltbedingungen („adaptive flow”)
  • Die Nichtexistenz eines konstanten Gleichgewichts (Erstarrungsvermeidung)
  • Ständige Produktion und Ausweitung von Nischen.

Adaptive komplexe Systeme sind trotz aller Strukturen „chaotisch” (oder wie die ganz Schlauen sagen: „chaordisch”). Sie ähneln eher einem Termitenbau als einer ägyptischen Pyramide, eher einem Sumpf als einer aufgeräumten Tischoberfläche. Robuste Komplexe Systeme „arbeiten” irgendwo im Zwischenbereich zwischen Ordnung und Chaos. Das macht sie – auf einer bestimmten Betrachtungsebene – unberechenbar. Wir können lediglich sagen, DASS sie überleben werden. Aber nicht genau WIE.

LEBEN ist vielleicht das Zäheste, was das Universum erfunden hat – auch  wenn es nur in kleinen Nischen der Komplexität gedeiht. Ein ökologisches System kann sich auf erstaunlich vielfältige Weise an wechselnde Bedingungen anpassen. Menschen sind extrem komplexe organische Systeme, die es im Rahmen eines linear-mechanischen Welt-Modells gar nicht geben dürfte, die aber über enorme Selbststeuerungs- und Anpassungs­fähigkeiten verfügen. „Natur” entwickelt ihre Robustheiten aus den Gesetzen der evolutionären Systemdynamik, im Sinne der „zyklischen Co-Evolution”.

Vom Theorem des „Complexity Mismatch” ausgehend lässt sich auch die Anpassungs-Wahrscheinlichkeit ermessen (adaptive Probabilität). Systeme sind dann mit hoher Wahrscheinlichkeit robust, wenn sie Störungen nicht nur „überstehen”, sondern aus ihren lernen. Resilienz ist eben mehr als nur „Robustheit.

Jens Christian Claussen: Cyclic Dominance and Biodiversity in Well Mixed Populations
Ross Ashby, Requisite variety and its implications for the control of complex systems
http://pcp.vub.ac.be/Books/AshbyReqVar.pdf
Governance and Metagovernance: On Reflexivity, Requisite Variety, and Requisite Irony.
Bob Jessop in Governance An International Journal Of Policy And Administration
Annette Gebauer und Ursula Kiel-Dixon: Das Nein zur eigenen Wahrnehmung organisieren, High Reliability Organizing in Extremsituationen.
In: Organisationsentwicklung 3/2009

Fragility of Interdependence – das Problem der Übervernetzung

Vernetzung, so die allgemeine generelle Annahme, ist prinzipiell „gut” im Sinne der System-Stabilität. Aber dies gilt keineswegs für alle Systeme und nicht in allen Umständen.

Der Systemforscher Alessandro Vespignani hat jene Systeme erforscht, die durch einen Mangel an innerer Variabilität zur „Gleichschaltung” neigen. Bei solchen Systemen ist es generell unmöglich, das abstrakt-globale Verhalten vom Verhalten einzelner Komponenten zu unterscheiden. Katastrophen und Versagen breiten sich schockwellenartig aus, Fehlfunktionen „infizieren” die anderen Teile des Systems.
In der Studie „Catastrophic Cascade of Failures in Interdependent Networks” schildern die Autoren u.a. die „Ansteckung”, mit der von der Mafia regierte Müllkippen in Süditalien schließlich das ganze Müll-System Italiens infizierte. Durch die guten „Beziehungen” der Camorra nach Norditalien wurden auch die dortigen Müllkippen und Müllsysteme korrumpiert. In „Networks of Economic Market Interdependence and Systemic Risk” beschreiben die Wissenschaftler diese Ansteckungsprojekte für die Finanzmärkte – und erklären daraus die Finanzkrise von 2008 als Über-Synchronisation der einzelnen Systemteile, die plötzlich „im Gleichmarsch” reagieren.

In seinem Buch „Adapt” beschreibt der System-Ökonom Tim Harford, wie die amerikanische Bush-Administration den Irak mit einer systemischen Fehlannahme an den Rand eines verheerenden Bürgerkrieges führte. Der „Kriegsherr” Donald Rumsfeld glaubte, durch die totale Verfügbarmachung von Information und zentralen Generalsstabs-Entscheidungen „alles unter Kontrolle” zu bekommen. Harford zeigt auf, wie flexible Strategien mit autonomen Entscheidungskompetenzen „im Feld” ungleich effektiver gegenüber dem zentralistischen Modell sind.


Visualization of market linkage change from 2003 to 2008 in technology (blue), oil (dark grey), other basic materials (light grey), finance including real estate (dark green) and other finance (light green).

Alessandro Vespignani, The fragility of interdependency, NAture, 15 April 2010
”Catastrophic cascade of failures in interdependent networks.” By Sergey V. Buldyrev, Roni Parshani, Gerald Paul, H. Eugene Stanley & Shlomo Havlin. Science, Vol. 328 No. 5976, April 15, 2010.
Dion Harmon, Blake Stacey, Yavni Bar-Yam, and Yaneer Bar-Yam: ”Networks of Economic Market Interdependence and Systemic Risk.”  arXiv, November 16, 2010

Selbstorganisation und Emergenz: Wie sich die Welt von selbst regelt

Alle diese Regelsysteme beschreiben im Kern die Selbstregulations-Fähigkeit von Systemen. Es sind die Bedingungen, unter denen komplexe Systeme nicht „aus dem Gleichgewicht” geraten – wobei „Gleichgewicht” die falsche Vokabel ist, weil nichtlineare Dynamik eben keine „Balance” darstellt, sondern einen Prozess am Rande des Chaos.

Feedback-Rekursionen, angemessene Komplexität und nötige Variabilität sind die „Zeiger” für eine Komplexität, die zumindest robust, wenn nicht resilient ist. Wobei der Unterschied zwischen beiden Kategorien im Grad der ADAPTIVITÄT besteht. Robuste Systeme sind relativ unempfindlich gegenüber Umwelteinflüssen. Sie weisen ein bestimmtes Maß an Autonomie auf, die auch in ihrer relativen geringen Gesamt-Komplexität begründet liegen kann. Resilienz hingegen besteht in einer erweiterten Robustheit: Resiliente Systeme sind variabler, sie passen sich Aussendrücken an, und variieren  ihre Form.

In der nächsten Stufe entsteht Emergenz als erweiterte Form der Resilienz. Hier geht es nicht mehr nur um Regulation, sondern um (Selbst-)ORGANISATION von Systemen. Das Wort Emergenz stammt vom lateinischen Verb emergere, „auftauchen lassen”. Emergente Systeme sind zur inneren Umformung fähig, das bisweilen spontan auftreten kann. Emergente Systeme sind evolutionär adaptive Systeme, die auf veränderte Umweltparameter mit INNOVATION reagieren. In diesem Sinne sind sie NICHT PREDIKIV, das heißt ihre Reaktionen sind nicht vollständig voraussagbar. Was in der Sprache der Biologie „Evolutionsvariabilität” heißt, lässt sich in der Systemsprache auf folgende Formel bringen:
Emergente Systeme sind Systeme, die aus Störungen neue und bisweilen höhere
Komplexität generieren.

Schlüsselliteratur

  • Sandra Mitchell: Komplexitäten Warum wir erst anfangen, die Welt zu verstehen (edition unseld)
  • Alexandra Margarete Freund u.a.: Selbstorganisation Ein Denksystem für Natur und Gesellschaft, 464 Seiten, Böhlau, 2006
  • Achim Stephan: Emergenz Von der Unvorhersagbarkeit zur Selbstorganisation, 292 Seiten, Mentis, 2005
  • Ludwig Huber: Wie das Neue in die Welt kommt Phasenübergänge in Natur und Kultur, 300 Seiten, Facultas, 2000

>>> Text als PDF herunterladen

< < voriges Kapitel (3.07) Übersicht nächstes Kapitel (3.09) >>

 


© 2014 Matthias Horx / Zukunftsinstitut Horx GmbH, Theorie der Trend- und Zukunftsforschung