Matthias Horx  Theorie der Trend- und Zukunftsforschung

Theorie der integrierten Prognostik

Interessieren Sie sich für Hintergründe, Philosophien und
vertiefte Methodik-Probleme der prognostischen
Wissenschaften?

Diese Texte sind im Rahmen meines Prognostik-Seminars
an der Zeppelin-Universität entstanden.
Sie sind "work in progress" und werden ständig
ergänzt und weitergeschrieben.

Eine Zusammenfassung der wichtigsten Ansätze der Integrierten Prognostik finden Sie hier:
Integrierte Systemische Prognostik.

Ich freue mich über Kommentare, Ergänzungen, Kritik, Anregungen und Literaturhinweise:
>>> Kommentar verfassen

HAUPTKAPITEL (zum Aufklappen auf ein Kapitel klicken):

<< voriges Kapitel (2.17) Übersicht nächstes Kapitel (3.01) >>

2.18  Crowdsourcing the Future

Von Andreas Haderlein

Mediennutzung ist heute interaktiver, kollaborativer und kreativer – die Innovationsarbeit und unternehmerische Wertschöpfung wird es künftig nicht weniger sein und erst recht nicht das methodische Gerüst prognostischer Verfahren.

Mit „Crowdsourcing” wird die Auslagerung von Ideenarbeit und Arbeitskraft auf eine nicht definierte größere Zahl von Internetnutzern bezeichnet. Besondere Aufmerksamkeit fand dieses Prinzip mit dem Buch „The Wisdom of Crowds” (2004, dt.: „Die Weisheit der Vielen” des US-amerikanischen Journalisten James Surowiecki. Er beschreibt darin unter anderem, dass Entscheidungen von heterogenen Gruppen in der Regel klüger ausfallen als die von Einzelpersonen.

In Anlehnung an dieses Prinzip werden derzeit unter dem Schlagwort „Crowdsourcing the Future” mediengestützte Simulations-Zugänge zu möglichen Zukünften erarbeitet, die die alten Delphi-Methoden erheblich verbessern können. Es lassen sich drei zentrale Verfahren unterscheiden:

1) Über Sozial-Medien konstituierte Verfahren

Diese sog. „Large-scale collaboration”-Systeme werden institutionell initiiert und moderiert. Jüngstes Beispiel ist „Superstruct”, das erste „massively multiplayer forecasting game”, aus dem „Institute for the Future” im kalifornischen Palo Alto.

Eine Welt umspannende Community, darunter auch Web-Promis wie Wikipedia-Gründer Jimmy Wales oder Tim O'Reilly, übten in diesem von der Game-Designerin Jane McGonigal entworfenen Ideen-Crowdsourcing ein Probehandeln für die Zukunft.

Das Spiel, das im Herbst 2008 durchgeführt wurde, sollte konkrete Lösungen für aktuelle und künftige Menschheitsprobleme finden. In einzelnen selbstorganisierten Projektschmieden nahm man sich diesen Problemen an. Verwoben war das Spiel in den ganz alltäglichen Kommunikations-Alltag der User: in Facebook, in Blogs, in Mails, in Chats, in Foren, Wikis und YouTube-Videos.

2) Als Anreizsytem installierte Verfahren, sog. Prediction Markets

Noch befinden sich „Vorhersage-Märkte” im Entwicklungsstadium, aber derzeit entstehen immer mehr virtuelle Marktplätze, auf denen man sich die „Weisheit der Masse” zu Nutze macht, um den Ausgang bestimmter Ereignisse zu prognostizieren. Auch Firmen wenden mittlerweile dieses Verfahren an, um beispielsweise unternehmensinterne Erhebungen zum Marktpotenzial neu entwickelter Produkte durchzuführen.

Das Funktionsprinzip wird besonders an der Community-Plattform „Hollywood Stock Exchange” (HSX) deutlich. Hier wird spielerisch auf den Erfolg künftiger Kinofilme gewettet, indem die Teilnehmer dieser virtuellen Börse Anteile an den Filmproduktionen erwerben. Der tatsächliche Erfolg von Filmen wird dabei erstaunlich genau „vorhergesagt”.

In 2007 wurden 32 von 39 Oskar-Nominierungen in den Hauptkategorien von den Spielern der HSX richtig benannt. Somit liegt die Plattform verblüffend häufiger richtig als Einzelexperten, klassische Umfrageergebnisse oder Erhebungsverfahren. Die Community- Mitglieder tauschen sich auf Basis der Medienberichterstattung, News aus der Entertainment- und Filmbranche, Filmkritiken, Promistorys etc. untereinander aus.

3) Als Datenverdichtung verstandene Verfahren ohne wissentliche, freiwillige Einbindung von Internet-Nutzern

Die neueste Entwicklung von prognostischer Echtzeit-Datengewinnung („Gegenwarts-Prognose”), wie sie beispielsweise über Google Trends erfolgt, wird derzeit immer valider. So gelingt es etwa die Verbreitungswege von Grippeepidemien nachzuvollziehen, mitunter gar deren Verlauf recht gut vorauszusagen.

Ebenfalls sind inzwischen Vorhersagen über Konjunkturentwicklung und Marktzahlen wie Automobil-Verkäufe und Reiseverhalten möglich. Die digitalen Spuren von Internet-Nutzern (Suchbegriffe, bestimmte Seitenaufrufe etc.) werden anonym nach repräsentativen Mustern hin analysiert. Für diese neue Form der „Netzwerkforschung” haben sich Begriffe wie Computational Social Science oder Sozialphysik etabliert.

Vertreter dieses transdisziplinären Forschungsstranges sind etwa der Physiker Albert-László Barabási oder Dirk Brockmann, gefragter Experte für die Vorhersage der Schweinegrippe in den USA. Noch werden diesem methodischen Ansatz zur weiteren Verbesserung Riegel aufgrund der länderspezifischen Datenschutzbestimmungen vorgeschoben. Allerdings ist der gegenwärtige Stellungskampf zwischen Google, Facebook, Twitter & Co. um die Echtzeitsuche im Internet auch ein Machtkampf um die wichtigste Datenbasis der Gegenwarts-Prognose.

Zusammenfassend lässt sich sagen: Obige Verfahren unterscheiden sich von den klassischen, auf Expertenwissen gestützten Delphi-Methoden durch:

  1. Den Einsatz größerer Teilnehmerzahlen via Internet.
  2. Die Überschreitung der Expertenbarriere.
  3. Die Vermehrung der Rückkoppelung-Stufen durch direkte Online-Kommunikation.
  4. Die Heranführung an „Echtzeitproblemstellungen” durch Beschleunigung des Delphi-Prozesses.

Schlüsselliteratur:

  • Nigel Gilbert (Hg.) (2010): Computational Social Science
    SAGE Benchmarks in Social Research Methods, Volume 1–4, SAGE Publications Ltd.
  • Don Tapscott, D. Anthony Williams (2007): Wikinomics
    How Mass Collaboration Changes Everything, Baker & Taylor Books
  • James Surowiecki (2005): Die Weisheit der Vielen
    Warum Gruppen klüger sind als Einzelne, München: Bertelsmann
  • Joyce E. Berg, Forrest D. Nelson, Thomas A. Rietz (2008):
    Prediction Market Accuracy in the Long Run
    International Journal of Forecasting, 24, 2008, S. 285–298
  • Peter A. Gloor (2006): Swarm Creativity
    Competitive Advantage Through Collaborative Innovation Networks, Oxford University Press
  • Peter A. Gloor, Jonas Krauss, Stefan Nann, Kai Fischbach, Detlef Schoder (2009): Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, IEEE Conference on Social Computing, 29.–31. August 2009, Vancouver

>>> Text als PDF herunterladen

<< voriges Kapitel (2.17) Übersicht nächstes Kapitel (3.01) >>

 


© 2014 Matthias Horx / Zukunftsinstitut Horx GmbH, Theorie der Trend- und Zukunftsforschung