Matthias Horx  Theorie der Trend- und Zukunftsforschung

Theorie der integrierten Prognostik

Interessieren Sie sich für Hintergründe, Philosophien und
vertiefte Methodik-Probleme der prognostischen
Wissenschaften?

Diese Texte sind im Rahmen meines Prognostik-Seminars
an der Zeppelin-Universität entstanden.
Sie sind "work in progress" und werden ständig
ergänzt und weitergeschrieben.

Eine Zusammenfassung der wichtigsten Ansätze der Integrierten Prognostik finden Sie hier:
Integrierte Systemische Prognostik.

Ich freue mich über Kommentare, Ergänzungen, Kritik, Anregungen und Literaturhinweise:
>>> Kommentar verfassen

HAUPTKAPITEL (zum Aufklappen auf ein Kapitel klicken):

<< voriges Kapitel (3.03) Übersicht nächstes Kapitel (3.05) >>

3.04  Mathematische Prognose-Tools

In gewisser Weise hat Mathematik natürlich immer mit Zukunft zu tun. „Berechnen” bedeutet ja: „In die Zukunft verfolgen”. Allerdings lassen sich einige Formeln und mathematische Theoreme finden, die ganz besondere prognostische Elemente beinhalten und in der integrierten Zukunftsforschung unabdingbar sind.

Regressionsanalyse

Eines der klassischen Werkzeuge der prognostischen Mathematik ist die Regressions­analyse. Unter einer „Regression” bezeichnet man eine Linie, die die Punkte eines Datensatzes auf dem idealen Weg verbindet, d.h. alle Datenpunkte zusammen haben den geringsten Abstand zur Linie. Damit enthüllen sich Strukturen, die vorher unsichtbar waren.

Der Begriff „Regression” wurde zum ersten Mal von Francis Galton, einem Cousin von Charles Darwin benutzt. Galton stellte fest, dass die Nachfahren besonders großer Eltern im Tierreich eher zu mittlerer Größe tendieren. „Regression zur Mitte” meint dabei auch die „Rücknahme” extremer Abweichungen in numerischen Zahlenreihen.

Mit Regressionen kann man den Wahrscheinlichkeits­bereich „kommender Daten” ermessen, also einen Wahrscheinlichkeits-Tunnel bauen. Saubere Regressionsanalysen eignen sich auch dazu, falsche Kausalitäten auszuschließen und mehr über die „realistischen” Zusammenhänge in Systemen zu erfahren. Sie stellen mehrere Variable in einem zwei-oder dreidimensionalen Raum dar und machen Korrelationen sichtbar, auch Abhängigkeiten von weiteren Variablen sind visualisierbar.

Die Gauss'sche Verteilungskurve

In Natur, Gesellschaft und Ökonomie sind viele Phänomene nach der Gaussschen Glockenkurve verteilt. So bewegen sich z.B. der IQ einer Bevölkerung, die Körper-Größenverteilung, oder auch die Wohlstandsverteilung immer in einem solchen Muster.

Erstaunlich ist die „Zähigkeit”, mit der die Gausssche Verteilung auf so gut wie alle Phänomene des Alltags zutrifft. Ob es um Arm und Reich geht, die Formensprache von Schneeflocken oder die Größe von Sandkörnern, immer findet sich eine ähnliche Proportion zwischen „Mitte” und „Extrem”. Kleine Abweichungen können dabei zu großen Folgen führen. So sind etwa 4,9 Prozent der Frauen und 5.1 Prozent der Männer mathematisch hochbegabt – aber die kleine Verschiebung „zugunsten” der Männer ist u.a. verantwortlich für die vielen männlichen Nobelpreisträger (eine kleine Zahl wird vom System „ausgelesen”.

Simon Baron Cohen zeigt in seinem Buch „The Science of Evil – On Empathy and the Science of Evil” auf, wie die Gausssche Verteilung auch Phänomene wir Gewaltverbrechen und Genozid beeinflusst. In allen menschlichen Populationen gibt es eine Verteilungs­kurve der Empathiefähigkeit. Es gibt (ungefähr) 5 Prozent Menschen, die kaum Gefühle für Andere empfinden und es gibt eine ebenso große Anzahl am anderen Ende des Emotionsspektrums, also hochemotional-empathische Menschen. Wenn die 5 Prozent in bestimmten politischen Umständen „ausgelesen”, also an die Macht gebracht werden, kommt es zu schrecklichen Verbrechen. Wenn einzelne Nicht-Empathiker unter ihre Prägung verstärkenden Umständen aufwachsen und leben, können sie zu Massenmördern oder Serienkillern werden.

Das Pareto-Prinzip

Der Ingenieur und Soziologe Vilfredo Pareto untersuchte zu Beginn des 20sten Jahrhunderts die Vermögensverteilung in Italien und fand heraus, dass ca. 20 % der Familien ca. 80 % des Vermögens besitzen. Erstaunlicherweise scheint sich auch in modernen Gesellschaftssystemen an dieser Regel wenig zu ändern, die auch für viele andere Phänomene gilt.

  • 20 Prozent der Amerikaner besitzen 80 Prozent des Vermögens
  • 80 Prozent aller Umsätze in den Firmen kommen von 20 Prozent der Produkte
  • 80 Prozent des Internet-Traffics gehe über 20 Prozent der Websites
  • 80 Prozent aller Filmumsätze mit 20 Prozent aller Filme
  • 80 Prozent des Sprachgebrauchs verwendet 20 Prozent der Worte.

Die Universalität der Pareto-Regel ist umstritten, aber die 20/80-Regel scheint eine Art Zähigkeit aufzuweisen. Sogar im Sozialismus waren die Vermögen und Warenzugänge ähnlich verteilt (nur auf niedrigerem Niveau). Offensichtlich handelt es sich um eine systemische Grundregel komplexer sozialer Systeme.

Koch, Richard: Das 80/20-Prinzip. Mehr Erfolg mit weniger Aufwand. Frankfurt/M.; New York, 1998. OT: The 80/20 principle. The secret of achieving more with less, 1997.

POWER LAW: Das Potenzgesetz

Das „Power Law” (Potenzgesetz) bemisst die Verteilung von Ereignissen in Zeitreihen, oder die Verteilung von Größenverhältnissen. So sind zum Beispiel Erdbeben immer entlang einer Power-Law-Linie verteilt: Je größer das Erdbeben, desto seltener ist es, und zwar grundsätzlich in einem Potenzverhältnis zur nächstkleineren Stufe. Ähnliches gilt für Kometeneinschläge, Extremwetter-Ereignisse, etc.

Städtegrößen reihen sich entlang einer Potenzlinie: Millionenstädte sind etwa 50mal seltener als Kleinstädte.

Das Alter von Tieren im Verhältnis zu ihrer Größe: Elefanten leben etwa 50mal so lang wie Mäuse. Ausschlaggebend ist hier die Herzschlag- oder Metabolismusrate – alle Säugetiere sterben nach ca. 1-2- Milliarden Herzschlägen.

Die Häufigkeit von Kriegen und Terroranschlägen: Je mehr Opfer, desto seltener die „events”.

Für die Prognostik ist das Potenz­gesetz enorm wichtig, weil es die statistische Wahrscheinlichkeit seltener (oder weniger seltener) Ereignisse bemisst. Viele Behauptungen der Beschleunigung oder des „immer mehr” lassen sich mit seiner Hilfe als Wahrnehmungs-Illusionen enttarnen. Die Anzahl kalter Winter oder Gewitter oder Hagelstürme oder Überschwemmungen bleibt immer gleich, auch wenn sie sich in bestimmten Phasen häufen (oder zu häufen scheinen).

Bifurkationsregel

Eine Bifurkation oder Verzweigung ist eine qualitative Zustandsänderung in nicht­linearen Systemen. Der Begriff wurde von Henri Poincaré eingeführt, einem Mathematiker des 19. Jahrhunderts.

Nichtlineare Systeme können in bestimmten Parameter-Situationen plötzlich in einen neuen Zustand „springen”. Zum Beispiel kann ein System, das zuvor einem Grenzwert zustrebte, nun zwischen zwei Werten oszillieren. Oder eine akkumulierte Entwicklung ändert plötzlich ihre Richtung. Bifurkation führt früher oder später zum Übergang eines (teil)linearen Systems in einen chaotischen Zustand. Die Osszillation nimmt immer größere Amplituden ein.

Markow-Ketten: Geregelter Zufall

Der russische Mathematiker Markow fand die Gesetze der „losen Bindungen in stochastischen  Prozessen” heraus. Dabei handelt es sich um Systemformen, in denen keine stringente, sondern nur eine lose Korrelation herrscht, und die deshalb viele Varianten von Zuständen einnehmen können. Eine Markow-Kette zeichnet sich dadurch aus, dass durch Kenntnis einer begrenzten Vorgeschichte ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses". Man nennt dies auch „Systeme der bedingten Erwartung” oder „Stochastische Systeme”. Markow-Ketten eignen sich sehr gut, um zufällige Zustandsänderungen eines Systems zu modellieren, das hohe Variabilität und geringe Kausalität aufweist.

Aus Markows Ansatz entwickelte sich ein statistisches Werkzeug, der sogenannte stochastische Markow-Prozess, aus dem sich zukünftige Entwicklungen auf Grundlage des gegenwärtigen Wissens bestimmen lassen. Heute findet sich z.B. eine Anwendung sogenannter Hidden Markov Models in der Handschriften- und Spracherkennungssoftware.

Die Bayes-Regel

Die Bayes-Regel bemisst die Wahrscheinlichkeit, unter unvollständigem Wissen definitives Wissen zu generieren. Man nennt dies auch eine „multikriterielle Entscheidungstheorie”, oder, um es profan auszudrücken, eine „Verbesserungstheorie.”

Im Prinzip geht es darum, von einem Ereignis aus rückwärts zu den möglichen, wahrscheinlichen, und schließlich sicheren Ursachen zu schließen. (Oder auch: Ein Geheimnis durch ein Rätsel zu ersetzen). Auf der psychologischen Ebene: „Lernen aus Beobachten bedeutet Revidieren von Wahrscheinlichkeitseinschätzungen.”

Zu Ende formuliert wurde die Bayes-Regel nicht von ihrem „Urdenker” Thomas Bayes, sondern von Simon Laplace, der sie aber nicht als mathematische Formel, sondern als reines Wahrscheinlichkeits-Theorem formulierte:

„Die Wahrscheinlichkeit einer Ursache (eines Events) ist proportional zur Wahrscheinlichkeit des Events (im Verhältnis zur Ursache).

Anwendbar ist Bayes Regel immer bei Ereignissen, die unklare Ursachen haben, denen man sich aber Stück für Stück durch addiertes Wissen nähern kann. Dies nennt sich auch „reverse Probabilistik” – man schließt vom Ergebnis auf die Ursachen. So kam sie bei der Decodierung von  ENIGMA, der deutschen U-Boot-Verschlüsselung im Zweiten Weltkrieg zum Einsatz, bei der Aufspürung von gesunkenen Schiffen, bei der Erklärung von Wählerverhalten, oder auch bei der Terrorbekämpfung.

Für die Zukunftsforschung ist die Bayes-Regel wichtig, weil sie eine „Schneise der Probabilität” in multikausale Systeme schlagen kann. Gegenüber linearen Vorhersagemodellen ist sie im Vorteil. So errechnete Teledyne Energy Systems im Jahr 1983 im Auftrag der US Air Force mit der Bayes-Methode das Risiko eines Weltraumshuttle-Unfalls, und kam dabei auf 1:35. Mit konservativen Methoden hatte die NASA die Wahrscheinlichkeit zuvor bei 1: 100 000 verortet. Die Weltraumbehörde ignorierte diese Warnung. Drei Jahre späte explodierte die „Challenger” und alle sieben Astronauten an Bord verloren ihr Leben.

Sharon Bertsch McGrave, The Theory that would not die, How Bayes cracked the enigma code, hunted down russian submarines and emerged triumphantly from two centuries of controversy

Die Fibonacci-Formel

Die Fibonacci-Folge ist eine unendliche Folge von Zahlen (den Fibonacci-Zahlen), bei der sich die jeweils folgende Zahl durch Addition ihrer beiden vorherigen Zahlen ergibt: 0, 1, 1, 2, 3, 5, 8, 13,...

Benannt ist sie nach Leonardo Fibonacci, der damit 1202 das Wachstum einer Kaninchenpopulation beschrieb. Die Zahlenfolge ist bereits seit den antiken Kulturen bekannt, weil sie wichtige Naturkonstanten abbildet. Sonnenblumen weisen eine entsprechende Spiralstruktur auf, Galaxien drehen sich nach der Fibonacci-Formel, Schneckenhäuser ebenfalls. Die Formel ist auch Ausgangspunkt des „goldenen Schnittes”, einer wichtigen Relation in Architektur und Ästhetik. Sie gilt als eine Metapher für generelle Wachstums- aber auch Begrenzungs-Systeme in natürlichen Prozessen.

Die Fibonacci-Formel wird in der Prognostik bei Elliot-Wellen eingesetzt, die zyklische Prozesse der Wirtschaft, aber auch der Sozioökonomie abzubilden scheinen. Entsprechende Modelle sind heute immer noch umstritten, zumindest aber interessant.


>>> Text als PDF herunterladen

<< voriges Kapitel (3.03) Übersicht nächstes Kapitel (3.05) >>

 


© 2014 Matthias Horx / Zukunftsinstitut Horx GmbH, Theorie der Trend- und Zukunftsforschung