Zukünfte

Eine kurze Geschichte der Zukunftsforschung seit 1945

As part of the event "Future - Philosophical Days 2016", 06.10.2016

Aflo Images/canva

„Die fatalistische Auffassung, daß die Zukunft unvorhersehbar und unvermeidlich sei, wird nach und nach aufgegeben. Man beginnt einzusehen, daß es eine Fülle möglicher Zukünfte gibt und diese Möglichkeiten durch entsprechende Interventionen verschieden gestaltet werden können. Das erhebt die Erkundung des Kommenden und das Suchen nach seiner Beeinflussung zu Bemühungen von großer sozialer Verantwortlichkeit. … (W)ir (müssen) aufhören, Zuschauer der Zeitgeschichte zu bleiben und an ihr mit der Absicht wirken, die Zukunft zu gestalten.“

Dieses Zitat ist dem Gründungspapier des „Zentrums Berlin für Zukunftsforschung“ entnommen, das sich 1968 formierte. Demnach schien die Zukunft aus einer Vielzahl an „Zukünften“ zu bestehen, welche nicht nur prognostiziert, sondern gestaltet werden könnten. Dies waren die Grundgedanken der „Zukunftsforschung“, die in den 1950er und 1960er Jahren als eine neue Wissenschaft entstand: Sie betonte die Möglichkeiten der aktiven Gestaltung der Zukunft, die sich im Begriff der Zukünfte widerspiegelten. In der Tat war die frühe Zukunftsforschung von einem teilweise frappierenden Vertrauen in die Prognostizierbarkeit von Zukunft, ja teilweise einer regelrechten Steuerungseuphorie geleitet, die sich aus einem überzogenen Technikoptimismus speiste. Da auch die Politik der 1960er Jahre im Banne von Ideen der vorausschauenden politischen Planung stand, fand die Zukunftsforschung rasch politische Aufmerksamkeit. Doch bröckelten der Technikoptimismus und das Vertrauen in die Voraussagbarkeit von Zukunft schon um 1970 – also vor der ersten Ölkrise 1973: Der Fokus der Zukunftsforschung verschob sich auf die Ökologie: Sie nahm nun verstärkt die Zukunft des Menschen in seiner Umwelt und im globalen Ökosystem in den Blick. Dies verband sich mit einer Welle von Krisenszenarien. In der Folge wuchs die Einsicht, dass ein objektives Wissen über „Zukünfte“ nicht erlangt werden kann, dass die Zukunft offen ist – und dies sind über die Zukunftsforschung hinaus die Grundlagen des heutigen Verständnisses von Zukunft.

Mein Vortrag konzentriert sich auf die bundesdeutsche Zukunftsforschung, ordnet diese aber in internationale Zusammenhänge und insbesondere die transatlantischen Bezüge ein – auch weil die entstehende Zukunftsforschung der 1950er Jahre von Beginn an eine internationale Wissenschaft war.

 

Eine Geschichte der Zukünfte

 

Die Zukunft hat eine lange Geschichte. Der Historiker Reinhart Koselleck argumentierte, dass in der „Sattelzeit“ um 1800 in Europa ein modernes Verständnis von Zeit und Zukunft Einzug gehalten habe. Mit der Aufklärung verloren eschatologische Bezüge, also die christliche Erwartung der Wiederkehr Christi auf Erden, und religiöse Prophezeiungen an Deutungskraft. Zugleich erschlossen sich neue Erwartungshorizonte durch die Vorstellung einer offenen, vom Menschen planbaren Zukunft, was als „Fortschritt“ auf den Begriff gebracht wurde. Damit schwand ein prophetisches Zeitverständnis, das die Zukunft auf die Gegenwart zukommen sah, zugunsten eines prognostischen, welches von der Vergangenheit und Gegenwart aus die Zukunft geradezu wie auf einem Zeitstrahl entwarf und davon ausging, dass das Erwartbare bis zu einem gewissen Grad aus der Vergangenheit und Gegenwart ableitbar sei.

Ob sich diese Wandlungsprozesse erst mit der Zeit um 1800 verorten lassen, ist umstritten. Doch zentral ist die Überlegung, dass Vergangenheit, Gegenwart und Zukunft nicht voneinander getrennte Dimensionen sind, sondern sich über Erfahrungs- und Erwartungsprozesse miteinander verknüpfen, ja dass jede Beschäftigung mit Zukunft in der Gegenwart angelegt ist und sich von ihr aus entwickelt. Damit existierten (und existieren) immer verschiedene Möglichkeitsräume und Entwürfe von Zukunft – eben Zukünfte –, die aus den verarbeiteten Erfahrungen des einzelnen und der Gegenwart der Prognose hervorgehen. Die Geschichte der Zukünfte zu erforschen erscheint wichtig, weil diese sehr viel über die damaligen Erfahrungen und Ordnungsvorstellungen aussagen. Zudem prägten Zukunftsentwürfe folgende Entwicklungen – etwa bei einer Warnungsprognose, die Gegenkräfte auf den Plan ruft, die verhindern, dass diese prognostizierte Zukunft eintritt.

 

Formierung im Zeichen des Kalten Krieges – und eines Technikoptimismus

 

An der Wurzel der modernen Zukunftsforschung lag der Kalte Krieg. Wissenschaft und Politik waren damals eng verzahnt, eine Cold War Science entstand. Die Systemkonkurrenz zwischen Ost und West herrschte ja auch und gerade auf technologischem Gebiet. Beide Seiten investierten deshalb hohe Summen in die militärisch-strategische und technologische Forschung. Insbesondere die USA schuf eigene Strukturen der Großforschung; dabei konnte man an das „Manhattan Project“ anknüpfen, das Projekt zur Erbauung der Atombombe im Zweiten Weltkrieg. Mit Think Tanks entstanden nach 1945 formal unabhängige Forschungsinstitute, in denen hunderte Wissenschaftler aus verschiedenen Disziplinen an Projekten politischer Bedeutung arbeiteten. Am bekanntesten ist die kalifornische RAND Corporation, die von der US Air Force begründet wurde und umfangreiche Mittel durch Regierungsaufträge, vor allem aus dem Verteidigungsministerium, zur Verfügung hatte. In den Think Tanks wurden auf interdisziplinärer Basis neue Methoden wissenschaftlicher Vorausschau entwickelt. Die theoretische Basis bildeten die Spieltheorie, welche Entscheidungen in Konfliktsituationen untersuchte, und in besonderer Weise die Kybernetik, eine neue, übergreifende Wissenschaft von der Nachrichtenübermittlung, Kontrolle und Steuerung in Systemen. In einem mechanistischen Verständnis ging sie davon aus, dass Rückkopplungsprozesse der Regelung und Übertragung von Nachrichten sowohl Menschen als auch Maschinen kennzeichneten. Damit ließen sich, so die Vorstellung, Prozesse als Systeme in ihren inneren und äußeren Rückkopplungsprozessen analysieren und damit Folgen bestimmter Entscheidungen in Simulationsmodellen durchspielen: Das Nachbilden eines Systems in einem Modell sollte die Prognose von Entwicklungen und die Steuerung der Zukunft ermöglichen.

Die Kybernetik und die davon abgeleitete Systemanalyse erlebten in den 1950er und 1960er Jahren in den USA und Westeuropa, aber auch in den sozialistischen Staaten einen Siegeszug: Mit ihr schien sich die Zukunft prognostizieren und steuern zu lassen. Die Problematik des mechanistischen Verständnisses – eine gewisse Gleichsetzung von Mensch und Maschine – wurde hingegen nur wenig reflektiert. Eine besondere Rolle spielte in den ersten Modellierungen der Computer: Die Think Tanks verfügten dank reicher Ausstattung über die ersten Großcomputer, damals raumhohe Rechner, und glaubten sich so in der Lage, mittels moderner Technik eine Vielzahl an Daten zu sammeln und für die Simulationsmodelle aufbereiten zu können.

Neben den Simulationsmodellen entwickelte sich eine zweite Methode bei RAND, die auch heute noch zentrale Bedeutung in der Zukunftsforschung hat, nämlich „Delphi“ als systematische Befragung von Experten. Diese sollten mittels eines Fragebogens in mehreren Runden mögliche und wahrscheinliche Entwicklungen in spezifischen Feldern schätzen, die Wahrscheinlichkeiten in bestimmten Zeitintervallen angeben und Gründe für abweichende Meinungen anführen (denn die Ergebnisse der Fragerunden wurden ihnen zur Verfügung gestellt). In der berühmten Delphi-Studie „Long-Range Forecasting Study“ von RAND (1964) ging es vor allem um wissenschaftlich-technische Zukünfte, um Automation, Raumfahrt sowie Waffensysteme der Zukunft. Die Experten rechneten etwa im Mittel damit, dass im Jahr 1980 zentrale „Informationsbanken“ zugänglich seien (als Antizipation des Internets). Für das Jahr 2000 erwartete man, dass Menschen zum Mars fliegen würden, für 2020 Symbiosen zwischen Mensch und Maschine, und sogar die „unmittelbare Einführung von Informationen in das Gehirn“ erschien der Mehrheit langfristig als erreichbar. Erkennbar wird hier nicht nur die Methode „Delphi“, sondern auch, dass die frühe Zukunftsforschung stark im Zeichen einer Wissenschafts- und Technikeuphorie stand.

Das Methodenwissen der Zukunftsforschung entstammte also den USA, aber die Zukunftsforschung als neue übergreifende Wissenschaft entstand erst im Rahmen eines transatlantischen Wissensaustauschs, und auch hier spielte der Kalte Krieg eine zentrale Rolle. Als Mittler diente die Ford Foundation, eine der großen amerikanischen Stiftungen, die immer auch sehr politische Ziele hatte: Ihr ging es darum, das westliche Demokratiemodell im Kalten Krieg zu sichern. Die Ford Foundation finanzierte deshalb ab 1961 ein transatlantisches Projekt zur Zukunftsforschung, Futuribles genannt (aus „futur“ und „possible“). Das Projekt hatte seine Operationsbasis in Paris und Genf, was kein Zufall war: In Frankreich bestand eine lange Affinität zur Zukunftsplanung, die sich in der Planification, der wirtschaftlichen Rahmenplanung nach 1945 widerspiegelte. Zudem trieb auch französische und westeuropäische Eliten das Interesse an der Zukunft der westlichen Demokratie, gerade im Zeichen der Krise der französischen IV. Republik und der Bildung der präsidentiellen V. Republik. Futuribles veranstaltete in den frühen 1960er Jahren internationale Konferenzen, die sich aber rasch nicht mehr nur um die Zukünfte der Demokratie drehten, sondern um die theoretische und methodische Basis einer Wissenschaft von der Zukunft. In der Folge etablierten sich in vielen westlichen Industriestaaten, neben den USA und Frankreich auch in der Bundesrepublik, Institute der Zukunftsforschung, etwa das eingangs genannte Zentrum Berlin für Zukunftsforschung (ZBZ).

Dies war die eine Wurzel eines Wissensaustauschs, die andere war ein gegenteiliger Prozess, nämlich eine Kommunikation unter Wissenschaftlern und Intellektuellen, die über die Grenzen des Kalten Krieges hinweg wirken wollten. In der Tat war Zukunftsforschung ja auch kein Phänomen des Westens. Ausgehend vom marxistisch-leninistischen Fortschrittsparadigma und geprägt vom technologischen Wettlauf zwischen West und Ost hatte sich in den 1960er Jahren auch in den sozialistischen Staaten die wissenschaftliche Beschäftigung mit Zukunft intensiviert. In Zeiten des drohenden Atomkrieges zwischen West und Ost wollten sich Wissenschaftler insbesondere über den Frieden (als gewollter Zukunft) austauschen. Dies zeigte etwa die Initiative „Mankind 2000“, die 1964 aus der westlichen Friedensbewegung hervorging und eine Kommunikation mit Wissenschaftlern aus den sozialistischen Staaten über Frieden anstieß.

Der Kalte Krieg bildete damit eine zentrale Rahmenbedingung für die Formierung der Zukunftsforschung. Hinzu kam ein neuer Technikoptimismus und – damit verknüpft – ein politischer Planungsboom. Der Wiederaufbau und die Zeit nach dem Kriege schienen Ende der 1950er Jahre in Wissenschaft und Politik endgültig abgeschlossen, nun konnte vorausgedacht, modernisiert, in die Zukunft geplant werden. Zugleich zeichneten sich Sprünge der technologischen Entwicklung ab und wurden medial vermittelt: die Atomtechnik, die in ihrer zivilen Nutzung in den 1950er und 1960er in Europa ja unumstritten war, die Luft- und Raumfahrt als großes Prestigeprojekt im Kalten Krieg und die bereits genannte Computertechnik. Hieraus speiste sich ein Technikoptimismus der späten 1950er und 1960er Jahre, der sich in Kultur und Film niederschlug, etwa in der fiktionalen Verarbeitung von Technik in der Science Fiction wie in den Fernseh-Serien „Star Trek/Raumschiff Enterprise“ und „Raumpatrouille“. Sichtbar wurde dies zudem in intellektuellen Diskussionen über das „Atomzeitalter“ und den „technischen Staat“, der – so die Argumentation – vermehrt auf technische Rationalität und Planung setzen sollte.

Politische Planung war ja besonders in der frühen Bundesrepublik negativ betrachtet worden. Dies wurzelte in der DDR-Planwirtschaft, von der man sich in Westdeutschland auf jeden Fall absetzen wollte. Doch in den 1960er Jahren wurde Planung im Westen und auch in der Bundesrepublik zu einem politischen Leitbild. Den Hintergrund bildeten der wirtschaftliche Boom, der ganz neue Handlungs- und Planungsspielräume zu bieten schien. Zudem wirkte eben ein positiv besetztes Wissenschafts- und Technikverständnis, das auch auf das Vorbild der bewunderten amerikanischen Think Tanks Bezug nahm. Planung galt jetzt als modern, als vorausschauendes Regieren, das sich moderner wissenschaftlich-technischer Mittel wie des Computers bediente und damit rational ausgerichtet war, also sach- und vernunftorientiert, um die vermeintlich sachlich richtigen Entscheidungen zu treffen, etwa mit der Steuerung der wirtschaftlichen Konjunktur im Keynesianismus. Vor allem die SPD war zunehmend an der Zukunftsforschung interessiert, damit die politischen Akteure – so taten etwa die 1969 veröffentlichten sozialdemokratischen „Perspektiven für die 1970er Jahre“ kund – erwünschte und unerwünschte Entwicklungen antizipieren und die Zukunft gestalten könnten.

 

Charakteristika und Strömungen der frühen Zukunftsforschung

 

Blickt man auf die Netzwerke und Personen, die Zukunftsforschungs-Institute begründeten, die Zukunftsforschung als neue Disziplin konzeptionierten und praktizierten, so lässt sich zeigen, dass sich diese Akteure über die Ländergrenzen hinweg in mehreren Punkten einig waren. Sie einte erstens die Wahrnehmung einer Beschleunigung, also eines immer rascheren Wandels der wissenschaftlich-technischen Entwicklung, der mit wachsender Komplexität einherging. Wissenschaftler aus verschiedenen Disziplinen betonten den exponentiellen Anstieg des Wissens und die „Durchbrüche“ in unterschiedlichen Gebieten der Forschung, vor allem in der Luft- und Raumfahrt und der Computertechnik. Daher schien es zweitens dringend nötig zu sein, in einer holistischen Perspektive vorauszuschauen und zu planen. In diesem Sinne ging die Zukunftsforschung von einem ganzheitlichen Verständnis aus, das die Zukunft „als Ganzes“, als Einheit erforschen wollte (und eben nicht die Zukunft der Konjunktur wie die Wirtschaftsprognostik). Drittens war die technisch-wissenschaftliche Beschleunigung erst – in der Sichtweise der Zukunftsforscher – die Voraussetzung für eine mittel- und langfristige Vorausschau: Nun gab es neue Methoden und Instrumente, welche die Zukunft prognostizierbar und steuerbar machten – vor allem die Kybernetik und den Computer. Viertens war immer wieder vom Begriff der vielen möglichen „Zukünfte“ die Rede. Ausgangspunkt dessen war in den 1950er Jahren die – vorsichtige – Überlegung, dass belastbares, objektives Wissen über die Zukunft kaum zu erlangen sei, weil sich eben viele Zukünfte aus der Gegenwart heraus entwickelten. Doch in den 1960er Jahren interpretierten viele Zukunftsforscher den Begriff der „Zukünfte“ im Sinne eines dominierenden Steuerungs- und Machbarkeitsdenkens: Demnach gab es eine Fülle an Möglichkeiten, die man aber nicht nur prognostizieren, sondern auch aktiv gestalten, ja zwischen denen man geradezu wählen könne.

Damit lassen sich Gemeinsamkeiten anführen, die das „Fach“ der Zukunftsforschung ausmachten. Dennoch existierten von Beginn an – und gerade in den ersten Jahren – verschiedene Strömungen innerhalb der Zukunftsforschung, die teilweise konkurrierten und Konflikte austrugen. Diese Strömungen – auch Denkstile genannt – hingen mit Ordnungsvorstellungen und Erfahrungen der Wissenschaftler, mit erkenntnistheoretischen Ansätzen und nationalen Wissenschaftstraditionen zusammen und führten zu bestimmten Konzeptionen dessen, was Zukunftsforschung sein sollte.

Ein erster Zugang, der normativ geprägt war, hatte eine philosophische Erkenntnisgrundlage und war besonders in der französischen Zukunftsforschung verbreitet. In Frankreich war ja schon in der Spätaufklärung, durch August Comte und andere, über die Möglichkeiten wissenschaftlicher Vorausschau und Planung reflektiert worden. In gewisser Weise führte diese Tradition auch der Politikwissenschaftler Bertrand de Jouvenel fort, der über die Zukünfte der westlichen Demokratie reflektierte und den Begriff der „futuribles“ aus „futur“ und „possible“ erfand. Parallelen zeigten sich hier etwa zum bundesdeutschen Atomphysiker und Philosophen Carl Friedrich von Weizsäcker, der ebenfalls aus einem liberal-aufklärerischen, aber stärker protestantisch geprägten Verständnis über die Zukunft nachdachte. Beiden ging es darum, die Welt, die mit ihrer technischen und sozialen Beschleunigung aus den Fugen geraten schien, wieder zu ordnen, und beide begriffen Zukunftsforschung auch als „Kunst“ in einem elitären Sinne, was die individuellen Fähigkeiten desjenigen betonen wollte, der über die möglichen Zukünfte in einem normativen Sinne nachdachte.

Dominierend war in den 1960er Jahren ein zweiter Denkstil, den ich als empirisch-positivistisch bezeichne. Ihn verkörperten Natur- und Sozialwissenschaftler, die Prognosen erstellen wollten, also konkrete, korrekte Voraussagen, und davon ausgingen, dass es möglich sei, objektives Wissen über die Zukunft mit modernen Techniken zu produzieren. Methoden waren die Extrapolation, also das lineare Weiterdenken von Entwicklungen, die bereits genannte Delphi-Methode und von der Kybernetik inspirierte, computerunterstützte Simulationsmodelle. In den US-Think Tanks dominierte dieser Zugang, verkörpert etwa vom bekannten US-Futurologen Herman Kahn, der nicht nur einer der Väter der Modellsimulation war, sondern auch im Buch „The Year 2000“ ähnlich technikbegeisterte Prognosen wie die Delphi-Befragung – über den Siegeszug des Computers und kommende Reisen auf den Mars – erstellte.

Auch viele Zukunftsforscher in der Bundesrepublik orientierten sich an einem empirisch-positivistischen Zugang und zeigten sich – wohl weil sie wegen der NS-Großforschung auf keine eigenen Planungstraditionen zurückgreifen konnten – besonders stark von der US-Forschung und ihren Computermodellen beeindruckt. Dies galt etwa für den Professor für Fernmelde- und Drahtnachrichtentechnik an der TH Karlsruhe Karl Steinbuch, der in den 1960er Jahren die Kybernetik in der Bundesrepublik popularisierte und mit Publikationen wie „Die informierte Gesellschaft“ zum beredtsten Verfechter der Technik und einer technikorientierten Zukunftsforschung wurde. Nicht nur warb er dafür, dass sich die bundesdeutsche Politik und Gesellschaft angesichts der rasanten wissenschaftlich-technischen Entwicklung sehr viel stärker mit der Technik der Zukunft beschäftigen müsse. Auch begriff er Technik als entscheidende modernisierende Kraft, sodass in Zukunft technische Geräte Funktionen übernehmen könnten, die bis vor kurzem dem Menschen vorbehalten schienen. So würden es „Lehrautomaten“ den Schülern ermöglichen, mittels Fernsprechgeräten und zentralen Informationsbanken Lernstoff abrufen, und damit ließen sich, so Steinbuch, in Zukunft viele Lehrer ersetzen. Erkennbar wird ein mechanistisches, ja technizistisch unterlegtes Welt- und Menschenbild, das sich aus der Kybernetik speiste und Mensch und Maschine kurzerhand parallelisierte.

Dies gilt teilweise auch für das ZBZ mit seinem ersten Vorsitzenden Heinz Hermann Koelle, einem Raumfahrtingenieur. Das Zentrum verschrieb sich zunächst computerunterstützten systemanalytischen Simulationsmodellen, die in formalisierten Darstellungen und quantitativen Berechnungen Informationsströme und Entscheidungsabläufe erforschen und steuern sollten. In besonderer Weise wollte man politikberatend tätig werden und offerierte politischen Akteuren, dass man sowohl Forschungs- als auch Bildungsplanungs-, Energie-, Verkehrs- oder Stadtforschungsmodelle erstellen könne. Erkennbar wird, dass für das ZBZ nicht mehr der Gegenstand – das „Was“ – entscheidend war, sondern das „Wie“: Jede Thematik erschien mit der Methode der systemanalytischen Modellierung bearbeitbar. In der Folge erstellte das ZBZ mehrere Expertisen unter anderem für die Planungsabteilung des Bundeskanzleramts der sozialliberalen Koalition 1969/70. Recht bald aber zeigte sich, dass politische Planung sehr viel komplexer war: Nicht nur weckten die Zukunftsforscher hohe Erwartungen in der Politik, weil man sich für alle Politikfelder zuständig erklärte, aber dann mit Spezialisten konkurrierte. Auch überschätzte man die Problemlösungsfähigkeit von Modellen und überhaupt den Systemcharakter sozialer Strukturen: Politische Entscheidungen hängen von vielen – nicht immer kommunizierten und rationalisierten – Faktoren ab und lassen sich nicht nur quantifizieren. Modellsimulationen versuchen die komplexe Realität zu imitieren und können soziale Komplexität nicht abbilden. Insofern war das ZBZ mit seinen übersteigerten Steuerungsvorstellungen zunächst wenig erfolgreich.

Dieser technikorientierten, in gewisser Weise technokratisch unterlegten Strömung stellte sich ein dritter Denkstil entgegen, den ich kritisch-emanzipatorisch nenne. Ihn verkörperten Geistes- und Sozialwissenschaftler wie der Historiker Robert Jungk, der Politikwissenschaftler Ossip Flechtheim oder der Friedensforscher Johan Galtung. Geprägt von Ideen der Neuen Linken und der „1968er“ wollte man in einem systemkritischen, teilweise marxistisch getränkten Sinne Machtstrukturen in demokratischen und kapitalistischen Gesellschaften hinterfragen, eben weil das Wissen um die Zukunft auch Herrschaftswissen sei. Stattdessen sollten die Zukünfte stärker partizipatorisch, also „von unten“ entworfen und gestaltet werden. Die kritisch-emanzipatorisch orientierten Zukunftsforscher blickten dabei oftmals auf eine Emigrations- oder Verfolgungserfahrung der NS-Zeit zurück, aus der heraus sie für eine „bessere“ Zukunft eintreten wollten. Insofern ist es nicht verwunderlich, dass diese Strömung in der Bundesrepublik eine besondere Basis hatte. Zudem engagierten sich skandinavische Forscher, auch weil diese Strömung kritische Zukunfts- und Friedensforschung verbinden wollte. In der Tat war ein Movens der Protagonisten, sich gegen die atomare Rüstung im Kalten Krieg auszusprechen. Ebenso wandte man sich zunehmend gegen eine positivistisch angelegte Zukunftsforschung, die nur – so Robert Jungk – Entwicklungen in die Zukunft verlängere. Dennoch verband sich dieser Zugang in den 1960er Jahren mit einem dominierenden Machbarkeits- und Planungsgeist. Jungk schrieb in seiner Reihe „Modelle für eine neue Welt“, Planung sei für die moderne Gesellschaft und die „Formung“ von neuen Menschentypen zentral: „Der im Typ des Planers sich ankündigende ‚homo novus‘ wird so zum Prototyp einer neuen Menschheit.“ Erkennbar wird hier ein utopisches Verständnis von Planung, das sowohl auf Planung von unten zielte, als auch auf die Formung eines „neuen Menschen“.

Mithin war die „westliche“ Zukunftsforschung der 1950er und 1960er Jahre von Machbarkeitsdenken, ja zum Teil von einer Steuerungseuphorie geprägt. Dies ist nicht gleichzusetzen mit grenzenlosem Optimismus, denn gerade im Bild von der technischen Beschleunigung spiegelte sich die Sorge vor einer Entgrenzung des „Fortschritts“. Doch dominierten das Vertrauen in die Erforschbarkeit und Steuerbarkeit der Zukünfte und ein Fortschrittsverständnis, das zwischen dem Bild vom „neuen Menschen“ und der Überzeugung vom technischen Fortschritt als steuerbarer Vorwärtsentwicklung von Wissenschaft und Technik changierte.

 

Der Wandel um 1970 und die Neuanfänge bis zur Gegenwart

 

Die deutsche und internationale Zukunftsforschung erfuhr 1970 bis 1972 – also schon vor der ersten Ölkrise – einen Wandel. Der wissenschaftlich-technische „Fortschritt“ erschien plötzlich nicht mehr beherrschbar, und die Zukunftsforschung wurde von einer ökologischen Wachstumskritik durchdrungen, welche sie selbst verstärkte. Aus diesem Wandel erwuchsen Lernprozesse und Neuanfänge. Diese Wandlungsprozesse lassen sich in fünf Punkten benennen.

Erstens unterlag die Zukunftsforschung einer Ökologisierung. In der zweiten Hälfte der 1960er Jahre keimte zunächst in den USA das moderne Umweltbewusstsein heran. Ursächlich waren Umweltprobleme wie die wachsende Luftverschmutzung, aber auch neue Wahrnehmungen der Umwelt, etwa in der amerikanischen „Counter Culture“, der Hippiebewegung mit ihren alternativen Lebenskonzepten und Werten. Zudem erlebte die Ökologie eine Konjunktur, die Wissenschaft von den Interaktionen zwischen lebenden Organismen und ihrer Umwelt im Rahmen des Ökosystems. Mit den Apollo-Missionen und der Mondlandung 1969 erhielt die Vorstellung vom Planeten Erde ganz neue Bedeutung, denn nun entstanden Bilder von der Erde von oben und stärkten eine globale Weltsicht und das Bild von einem verletzlichen Planeten. Dies verband sich mit einer entstehenden ökologischen Sozialwissenschaft, die den Indikator des Wirtschaftswachstums in Frage stellte, der ja im Westen so sehr als Maßstab für Erfolg gegolten hatte: Wissenschaftler fragten, ob nicht auch soziale und Umweltaspekte – mithin Lebensqualität – in den Wachstumsbegriff eingehen müssten.

Die ökologische Wachstumskritik floss um 1970/71 in die Zukunftsforschung ein. Die Verbindung schuf die Ökologie, die in Kreisläufen – also kybernetisch – dachte und damit anschlussfähig an die Zukunftsforschung war. Dies zeigte sich in erster Linie an der Studie „The Limits to Growth“ („Die Grenzen des Wachstums“) und der Debatte um das Buch. Die Studie wurde vom Club of Rome in Auftrag gegeben, einer westlichen Organisation aus Wissenschaftlern, Intellektuellen und Unternehmern, welche die Zukunftsfragen der Menschheit mit systemanalytischen Methoden erforschen und dann globale Planungen anregen wollte. Im Sinne der Kybernetik suchte man also das „ganze“, globale System zu erfassen und zu steuern, was im Kern an Grenzen führen musste. Der Club of Rome beauftragte das amerikanische Massachusetts Institute of Technology (MIT), ein erstes computerbasiertes Modell zu erstellen. Dieses kam zum Ergebnis, dass die Weltbevölkerung und die industrielle Produktion bis etwa zum Jahr 2100 exponentiell wachsen, die Rohstoffe (vor allem Öl) versiegen und die Umweltverschmutzung drastisch ansteigen würden. Deshalb sei ein globaler Kollaps innerhalb der nächsten 100 Jahre unausweichlich, wenn keine radikale Kursänderung erfolge. Einen Ausweg sah man nur in einem demographischen und wirtschaftlichen Gleichgewichtszustand, erreicht durch scharfe Bevölkerungskontrollen und Verzicht auf wirtschaftliches Wachstum. Menschen könnten, so die Autoren des Berichts, eben nicht mehr frei über die Zahl ihrer Kinder und den Verbrauch von Rohstoffen entscheiden.

Die Studie, 1972 publiziert, wurde zum Bestseller. Zwei Aspekte machten die starke Resonanz des Buches aus: Es stand zum ersten mit dem Computermodell im Geist des Zukunfts- und Planungsdenkens, das die 1960er so stark beherrscht hatte. Zum Zweiten griff es jene Ansätze einer ökologischen Wachstumskritik auf, die wie gesehen zu zirkulieren begannen und die mit der im Sommer 1972 stattfindenden Umweltkonferenz der Vereinten Nationen in Stockholm neue Nahrung erhielten. „The Limits to Growth“ verstärkte diese Wachstumskritik mittels des Computermodells. Dies galt vor allem Ende 1973, als die Ölkrise die These von der Endlichkeit der Ressourcen zu bestätigen schien.

Die Zukunftsforschung – und besonders die bundesdeutsche – diskutierte die Studie intensiv: Die Vertreter eines empirisch-positivistischen Denkstils wie Steinbuch waren von der computerbasierten Modellsimulation beeindruckt, während kritische Zukunftsforscher wie Robert Jungk die ökologisch-warnenden Thesen aufgriffen. Gleichwohl wurde die Studie auch hart kritisiert, insbesondere von Ökonomen, aber auch von empirisch arbeitenden Zukunftsforschern aus den USA wie Herman Kahn. Sie monierten, die Datenbasis sei viel zu gering, und die Studie berücksichtige keinen technischen Fortschritt, der ja dann auch die Probleme der Umweltverschmutzung lösen könne. In der internationalen Zukunftsforschung jedenfalls wurde nun die Zukunft des globalen Ökosystems schlagartig zum Thema. Gerade bundesdeutsche Zukunftsforscher, die – wohl mit Blick auf die NS-Erfahrung und die Brüche in der eigenen Biographie – weniger stark auf evolutionäre Entwicklungen vertrauten, zeigten sich kurzzeitig stark im Banne von Krisenszenarien bis hin zur Rede vom drohenden „Untergang“ aufgrund wachsender Umweltbelastungen, des Versiegens der Rohstoffe und des Weltbevölkerungswachstums. Aber gerade aus dem Diskurs, aus dem Sprechen über das Wachstum entstand eine Konsensformel eines „anderen“, eines „qualitativen“ Wachstums, das nicht nur einen wirtschaftlichen, materiellen Wachstumsbegriff messen, sondern stärker Fortschritt auch an ökologische und soziale Kriterien binden sollte. Diese Diskussion verlor im Laufe der 1970er Jahre an Zugkraft: Im Zeichen der wirtschaftlichen Krisen der 1970er Jahre erhielt materielles Wachstum neue Bedeutung, auch mit Blick auf die Beschäftigungssituation. Doch hatte sich die Zukunftsforschung verändert, und dies mit weitreichenden Wirkungen: Das „qualitative Wachstum“ drang in die politische Sprache und hinterließ hier Spuren, nicht nur in einem neuen ökologisch-kritischen Flügel der SPD um Erhard Eppler, sondern auch bei den in den 1970er Jahren entstehenden Grünen. Zudem gerann aus dem „qualitativen Wachstum“ die Formel der „nachhaltigen Entwicklung“. Diese wurde in den 1990er Jahren zu einem allgegenwärtigen, vieldeutigen Leitbild einer Balance von Ökologie, Ökonomie und Sozialem, das noch immer zentrale Bedeutung für die Zukunftsforschung hat.

Zweitens globalisierte sich die Zukunftsforschung. War in den ersten Jahren mit dem Friedensthema der Ost-West-Gegensatz ein Feld der Zukunftsforschung gewesen, rückte nun das Globale in den Fokus. Den Hintergrund bildete die Nord-Süd-Politik der 1970er Jahre, die mit den Ölkrisen und der Entspannung zwischen Ost und West in den Blickpunkt der internationalen Politik geriet und die Forderung der Entwicklungsländer nach einer neuen, gerechteren Weltwirtschaftsordnung belebte. Dies verband sich 1972/73 mit der Wachstumsdebatte: Wissenschaftler der Schwellenländer kritisierten, man benötige dort wirtschaftliches Wachstum, um zu den Industrieländern aufschließen zu können; das Modell müsse regional aufgeteilt werden. Die Zukunftsforschung widmete sich in der Folge intensiv der Nord-Süd-Politik, vor allem die 1973 gegründete World Future Studies Federation (WSFS). Diese betonte die gegenseitige Abhängigkeit (Interdependenz) von Nord und Süd und die Verkopplung von globalen Umwelt- und Entwicklungsfragen. Damit wurde sie zum Fürsprecher eines „Weltlastenausgleichs“, einer idealistischen Forderung nach einem Wachstumsverzicht des Nordens zugunsten einer Zukunft des Südens, und sie forcierte neue Ansätze in der Entwicklungspolitik wie die Grundbedürfnisstrategie, die sich auf die Bedürfnisse der Menschen vor Ort konzentrieren wollte – und nicht auf das Ziel hoher Wirtschaftswachstumsraten im Süden. Doch verlor der Nord-Süd-Gegensatz mit dem Aufstieg der Angebotsökonomie und der Liberalisierung des Welthandels in der Ära Thatcher/Reagan internationale Aufmerksamkeit. Die Zukunftsforschung setzte nun stärker auf eine Verbindung globaler mit lokalen Zukunftsperspektiven, was auch mit einer methodischen Pragmatisierung zu tun hatte.

Diese methodische Pluralisierung und Pragmatisierung ist der dritte Wandlungsprozess: Die Zukunftsforschung hinterfragte in den 1970er und 1980er Jahren verstärkt das bisher recht unkritische Verständnis von Technik und die Schwerpunktsetzung in der quantitativen Modellbildung. Hingegen rückten nun die Zukunft des Menschen und seine Bedürfnisse in den Blickpunkt. Hier wirkte nicht nur ein breiterer Wandel in den Sozialwissenschaften, im Zuge dessen sich das Denken in Systemen und Strukturen erschöpfte. Ebenso interagierte die Zukunftsforschung mit den neuen sozialen Bewegungen – der Welt der Umwelt-, Anti-AKW- und Dritte Welt-Bewegungen – und ihrer Forderung nach mehr Partizipation. Dies konnte in der Zukunftsforschung teilweise auch eine Politisierung bedeuten, war aber dennoch eine Pragmatisierung, weil das Vertrauen in die Steuerungsmodelle schwand. Nun entstanden partizipative Verfahren: Die von Robert Jungk entworfenen „Zukunftswerkstätten“ wollten Bürgern gerade auf lokaler Basis die Möglichkeit geben, Zukünfte frei und kreativ zu entwickeln und dann über ihre Umsetzung nachzudenken.

Die Zukunftswerkstätten sind auch heute noch ein zentrales Verfahren der Bürgerbeteiligung und Zukunftsplanung gerade in der Stadtplanung. Damit weitete sich der Methodenkanon: In den Nachfolgeinstituten des ZBZ, dem Institut für Zukunftsforschung und dem Institut für Zukunftsstudien und Technologiebewertung (das auch heute noch in Berlin existiert), blieben computergestützte Simulationsmodelle wichtig, aber wurden nun mit anderen Ansätzen kombiniert, vor allem mit qualitativen Szenarien, die Wirkungszusammenhänge berücksichtigen und alternative Pfade der Entwicklung skizzieren, und mit dialogischen Verfahren wie Zukunftswerkstätten. Daraus entwickelte sich der Ansatz des „Foresight“, der sich als Prozess der Reflexion und der visionären Vorausschau versteht, bewusst auf den Dialog mit den Akteuren und Betroffenen setzt und anerkennt, dass es objektives Wissen über die Zukünfte nicht gebe.

Diese Pragmatisierung konkurrierte ein Stück weit mit einem vierten Wandlungsprozess, einer Ökonomisierung. Schon in den frühen 1970er Jahren war die politische Planungsbegeisterung geschwunden: Nicht nur fehlten der Exekutive in den Wirtschaftskrisen die Mittel für großangelegte Planungsprozesse; auch wirkten hier die nicht unproblematischen Erfahrungen mit der Zukunftsforschung und anderen Planungsexperten nach. Zudem drangen in der Bundesrepublik wie gesehen die neuen sozialen Bewegungen auf mehr Mitgestaltung. Vor allem aber erlebte in der Wirtschaftswissenschaften und Wirtschaftsexpertise die Angebotsökonomie einen Aufstieg: Sie löste den Keynesianismus ab, der mit den Ölkrisen an Schlagkraft und Legitimation verlor, weil er den konjunkturellen Einbruch – der eben auch struktureller Natur war – nicht stoppen konnte. Die Angebotsökonomie setzte hingegen auf die Verbesserung der Angebotsbedingungen von Unternehmen und auf den freien Markt. Damit wuchs ein „neoliberal“ angelegtes Welt- und Menschenbild in Teilen von Wirtschaft und Politik, das verstärkt auf Marktorientierung, Wettbewerb und Flexibilisierung setzte. Das bedeutete keinen Verzicht auf Zukunftsvorausschau, die ja im Wettbewerb notwendig war. Aber Planung wurde nun von der „strategischen Vorausschau“ abgelöst, und das betraf auch international agierende Unternehmen wie die Münchener Rück oder Daimler, die in den 1980er Jahren verstärkt Gruppen und Abteilungen der strategischen Planung bildeten. Diese stellten mittel- und langfristige Überlegungen zur Technologie- und Marktentwicklung an. Damit integriert die heutige Zukunftsforschung ganz unterschiedliche Zugänge. So fahndet die Foresight-Gruppe des Fraunhofer-Instituts für System- und Innovationsforschung einerseits – etwa mit der Nachhaltigkeitsforschung – nach einer langfristigen, globalen Ethik, während sie andererseits ein Ökonomisierungsdenken verstärkt. Eine Studie zum Wandel des Arbeitsmarkts aus dem Jahr 2013 benennt als Großtrends Digitalisierung, Flexibilisierung der Arbeitswelt und Globalisierung und gibt als „robuste“ Zukunfts-Strategie aus, Arbeitnehmer müssten ihre Flexibilität stärken, ihr Selbstmarketing verbessern und sich den Anforderungen der Zukunft anpassen. Solche Überlegungen zielen stärker auf ökonomisch definierte Normen und weniger auf eine Entwicklung alternativer Zukünfte.

Schließlich deutet sich fünftens eine partielle Rückkehr des technizistischen Steuerungsdenkens an: Aus dem verstärkten Nachdenken über die Chancen und Gefahren von Technik war die Technikfolgenabschätzung hervorgegangen, welche die Folgen neuer Technologien in kultureller, gesellschaftlicher und ökologischer Hinsicht erkundet. Hingegen erwuchs im Kontext der Digitalisierung und der Entstehung neuer Kommunikationsmedien (wie dem Internet) in den 1990er und 2000er Jahren ein neuer Technikoptimismus. Von den Chancen der „Digitalisierung“ und der „Industrie 4.0“ war in den letzten Jahren viel die Rede, zudem von „Big Data“, die freilich stärker außerhalb der professionellen Netzwerke der Zukunftsforschung propagiert wurde: Mit riesigen Datenbeständen könne die Zukunft berechnet und besser denn je prognostiziert werden.

Aus meiner Perspektive würde ich argumentieren, dass heute Computer genauer und leistungsfähiger sind als in den 1960er und 1970er Jahren. Doch können sie soziale Komplexität nicht einfangen. Die Erforschung der Zukunft (und der Zukünfte) basiert eben immer auf der Anerkennung von Komplexität und der Ermittlung von Ursachengeflechten, nicht auf der reinen Sammlung und Hochrechnung von Daten. Dies spiegelt zentrale Lernprozesse der Zukunftsforschung seit 1945. Die Zukunft, dies ist auch eine historische Erkenntnis, lässt sich nicht berechnen.

More media by the author / Topic: Philosophy | Human Sciences

Current events on the topic: Philosophy | Human Sciences