Eine kurze Geschichte
der Gegenwart
C.H.Beck
Von Big Data über Gleichstellung und Klimawandel bis zum Euro – die Welt ist in Bewegung, und sie dreht sich im 21. Jahrhundert scheinbar immer schneller. 21.0 ist ein Crashkurs durch die Grundprobleme unserer Zeit. Wie und wann sind sie eigentlich entstanden? Was an ihnen ist neu und was sind Muster, die wir aus der Geschichte kennen? Welche Entwicklungen zeichnen sich für die Zukunft ab? – Andreas Rödder, Professor für Neueste Geschichte an der Universität Mainz, zieht in seinem Buch Schneisen durch die unübersichtliche Gegenwart und überrascht den Leser immer wieder mit einer Fülle von ungewohnten Perspektiven und neuen Einsichten.
Seit den siebziger und achtziger Jahren des 20. Jahrhunderts ist eine Dynamik in Gang, die nur ein historisches Vorbild kennt: die Zeit vor 1914. Damals wie heute gilt: Der moderne Mensch ist in der Lage, enorme Kräfte zu entfesseln – und er hat alle Hände voll zu tun, sie wieder einzufangen. Andreas Rödder geht dieser Dynamik in seinem höchst kenntnisreichen Buch nach und verfolgt die Grundprobleme unserer Gegenwart systematisch zurück bis zu ihren historischen Ursprüngen. Er beschreibt ihre Entwicklungsgeschichte und die aktuellen Lösungsstrategien mit ihren erkennbaren Vor- und Nachteilen. Dabei steht Deutschland im Zentrum, doch erweitert sich der Blick immer wieder auch auf Europa und die globalisierte Welt. Wer die Gegenwart besser verstehen will, der sollte diese ungewöhnliche Geschichte unserer Zeit gelesen haben.
Andreas Rödder ist Professor für Neueste Geschichte an der Johannes Gutenberg-Universität Mainz. Bei C.H.Beck sind von ihm das Standardwerk Deutschland einig Vaterland. Die Geschichte der Wiedervereinigung (22009) sowie der Band Geschichte der deutschen Wiedervereinigung (2011) in der Reihe „Wissen“ erschienen.
Für Silvana,
Johanna, Almut und Maria
Eine Geschichte der Gegenwart – ist das möglich?
I. Welt 3.0
1. Eins und Null: Die digitale Revolution
2. Vernetzte Wirklichkeiten
3. Schneller, höher, stärker
4. Schöne neue Welt?
II. Global Economy
1. Die erste Globalisierung und ihre Feinde
2. Neoliberalismus?
3. Die zweite Globalisierung und ihre Effekte
4. Deutschland unter Druck
5. Der große Knall
III. Die Welt ist nicht genug
1. Die erste Energiewende
2. Umweltbewegung im Zielkonflikt
3. Die deutsche Energiewende und der Klimawandel
IV. Die Ordnung der Dinge
1. Kulturschock 1973
2. Der wichtigste Denker des späten 20. Jahrhunderts
3. Zahlen, Zahlen, Zahlen: Das marktradikale Modernisierungsparadigma
4. Die Kultur der Inklusion
5. Gott und die Welt
V. Wo zwei oder drei
1. Haben und Sein: Die Konsumgesellschaft
2. Oben und unten: Arm und reich
3. Drinnen und draußen: Migration und Integration
4. Alt und jung: Die demographische Herausforderung
5. Männer und Frauen? Formen des Zusammenlebens
6. Ost und West: Die Folgen von 1989
VI. Vater Staat
1. Totgesagte leben länger
2. Kapitalismus und Demokratie
3. Postdemokratie?
4. Interventionsstaat und Bürgergesellschaft
5. Modell Deutschland oder Problem Deutschland?
VII. Neues vom alten Europa
1. Von Athen nach Brüssel?
2. Von Europa I nach Europa II
3. Making of
4. Die vergessene Hälfte
5. Europa III? Die Euro-Schuldenkrise
VIII. Weltpolitik und Weltgesellschaft seit 1990
1. Die Ordnung von 1990
2. Ein «seltsamer Hegemon»
3. Ein unzufriedener Verlierer
4. Wer regiert die Welt?
5. Weltgesellschaft oder Machtspiel?
21.0
Resümierende Überlegungen
Dank
Verzeichnis der Abkürzungen
Anmerkungen
Benutzte Literatur (Auswahl)
Abbildungsnachweise
Sachregister
Personenregister
Dieses Buch ist ein Abenteuer. Es versucht, die Gegenwart historisch zu erklären, eine Zeit, die der amerikanische Philosoph Mark Lilla als «unlesbar» bezeichnet hat. Denn mit dem Ende des Ost-West-Konflikts habe sich die politisch-intellektuelle Ordnung der Moderne, der Gegensatz zwischen einem linken und einem konservativen Verständnis unserer Zeit, aufgelöst.[1] Jahre zuvor hatte schon Václav Havel, der tschechische Schriftsteller, Dissident und Präsident, erklärt: «Wir genießen all die Errungenschaften der modernen Zivilisation. Doch wir wissen nicht genau, was wir mit uns anfangen, wohin wir uns wenden sollen. Die Welt unserer Erfahrungen erscheint chaotisch, zusammenhanglos, verwirrend. Experten der objektiven Welt können uns alles und jedes in der objektiven Welt erklären; unser eigenes Leben aber verstehen wir immer weniger. Kurz, wir leben in der postmodernen Welt, in der alles möglich und fast nichts gewiss ist.»[2] Der Westen, so monierte Havel, wisse mit seinem Sieg im Kalten Krieg nichts anzufangen.
Was ist nach 1990 aus der Freiheit des Westens geworden? Wie hat sich der dramatische Wandel der Lebenswelten, den Digitalisierung und Globalisierung mit sich gebracht haben, auf das Denken und die politische Kultur ausgewirkt? Lassen sich aus historischer Warte Tendenzen und Konfliktlinien der Gegenwart erkennen? Bedroht der Kapitalismus die Demokratie? Ist Deutschland zu groß für Europa? Welche Rolle spielt das Ende des Ost-West-Konflikts für die internationalen Krisen des 21. Jahrhunderts, und wie fällt die Bilanz der europäischen Integration aus? Was ist neu an der Gegenwart, und was sind wiederkehrende historische Muster?
Das sind die Fragen dieses Buches, und sie führen in ein wissenschaftliches Niemandsland. Es liegt zwischen der Domäne der gegenwartsbezogenen Sozialwissenschaften und dem Terrain der Geschichtswissenschaften, die erst in Ansätzen über die Epochenschwelle von 1989/90 hinausgegangen sind[3]. Als Tony Judt 2005 den ersten größeren Anlauf unternahm, die «Geschichte Europas nach 1945» bis zur Gegenwart zu schreiben, stellte er sie ganz in den «langen Schatten des Zweiten Weltkrieges». Politische Ideologien, europäische Nationalstaaten und die Erinnerungen an den Krieg, auch und gerade nach 1990, dienten als entscheidende Kategorien seiner Deutung.[4] Andreas Wirschings 2012 erschienene Geschichte Europas seit 1990 beschreibt einen «mächtigen historischen Trend zur Konvergenz», der sich im dialektischen Zusammenhang mit immer wiederkehrenden Krisen durchgesetzt habe.[5] Ein anderes Narrativ der Nachkriegsgeschichte hat sich vor dem Hintergrund der globalen Finanzkrise von 2008 in der politischen Öffentlichkeit, in den Sozialwissenschaften und in der Zeitgeschichtsforschung ausgebildet: Bis in die siebziger Jahre habe ein Konsens über den keynesianisch organisierten Wohlfahrtsstaat geherrscht, der seit den achtziger Jahren durch den «Neoliberalismus», einen «digitalen Finanzmarktkapitalismus» und naive Marktgläubigkeit abgelöst und zerstört worden sei.[6]
Charles Maier stellt den Niedergang der neuzeitlichen «Territorialität» seit den siebziger Jahren des 20. Jahrhunderts in den Mittelpunkt seiner Sicht. Dies entspricht der verbreiteten Annahme, der moderne Territorialstaat habe unter den Bedingungen von Globalisierung, Digitalisierung und Europäisierung substantiell an Bedeutung verloren.[7] Hartmut Rosa sieht die entscheidende sozial-kulturelle Entwicklung in einer Beschleunigungswelle, die sich mit der Globalisierung aufgebaut und die Zeitstrukturen verändert habe.[8] Eine historische Parallele findet er im technologischen und ökonomischen Wandel vor 1914, der die Alltagserfahrungen der Menschen prägte und zugleich neue Ambivalenzen hervorbrachte.[9]
Hier knüpft diese «Geschichte der Gegenwart» an, die sich als eine historische Bestandsaufnahme unserer Zeit und zugleich als Beitrag zu einer wissenschaftlichen Geschichte der «Mitlebenden»[10] versteht – so die klassische Definition von Zeitgeschichte, die Hans Rothfels 1953 formulierte. Sie ist zu einem geflügelten Wort geworden und stößt zugleich auf Skepsis.[11] Lassen sich prägende Kategorien und zentrale Entwicklungen einer Zeit nicht erst in der Rückschau und mit einigem Abstand erkennen? Neigt gegenwartsnahe Zeitgeschichtsschreibung nicht dazu, sozialwissenschaftliche Gegenwartsdiagnosen und feuilletonistische Selbstbeschreibungen unkritisch zu übernehmen und historisch fortzuschreiben? Wo liegt ihr Mehrwert, wenn es ihr an archivalischen Quellen mangelt? Kurzum, ist eine «Geschichte der Gegenwart» überhaupt möglich?
Dass sich die Ansicht der Vergangenheit mit den Erfahrungen der Gegenwart wandelt, ist keine Besonderheit einer Geschichte der Gegenwart. Dieses Phänomen gilt ebenso für die Geschichte der Reformation oder der Julikrise von 1914, für die Geschlechtergeschichte ebenso wie für die global history. Dass Gegenstände, die heute als zentral erscheinen, morgen am Rande der Aufmerksamkeit stehen, weil sich Fragestellungen und Perspektiven wandeln, ist ein allgemeines Problem aller Geschichtswissenschaft. Es stellt sich für die jüngste Zeitgeschichte, angesichts noch unabgeschlossener Entwicklungen, nur in zugespitzter Form. Grundsätzlich sind die Erkenntnisbedingungen keine anderen. Und was bedeutet dieser Befund für die Geschichte der Gegenwart? Zum einen schärft er das Bewusstsein für die Vorläufigkeit historischer Deutungen, und zum anderen verlangt er besondere methodische Sorgfalt bei Auswahl und Analyse der Gegenstände.
Um die zentralen Entwicklungen und Probleme der Gegenwart zu identifizieren, ist diese Untersuchung in drei Schritten vorgegangen. Zunächst hat sie in Anlehnung an Max Weber die vielen möglichen Gegenstände in die Kategorien Staat und Politik, Wirtschaft, Gesellschaft und Kultur eingeteilt und ihre Überlappungen reflektiert. Dann wurden die Forschungen, Debatten und Ergebnisse der jeweiligen Gegenwartswissenschaften gesichtet, vor allem aus den Bereichen der Soziologie, der Sozialphilosophie und -psychologie sowie der Wirtschafts-, Staats-, Politik- und Kommunikationswissenschaften. Das konnte nicht en detail geschehen, wohl aber mit dem Anspruch, den Forschungsstand dieser Disziplinen grundsätzlich zu erfassen. Schließlich wurden die erhobenen Befunde mit historischen Analysekonzepten in Beziehung gesetzt und mit einem kräftigen Schuss an historischem common sense auf ihre langfristige Signifikanz hin befragt.
Was die Quellen betrifft, so sind archivalische Quellen für die zurückliegenden dreißig Jahre in der Regel nicht oder nur eingeschränkt zugänglich. Daher können einige Themen, insbesondere politische und administrative Entscheidungsprozesse, noch nicht zureichend erforscht werden. Zugleich liegt eine Besonderheit der Zeitgeschichte darin, dass die Gegenwart eine historisch ungekannte Fülle von Wissen über sich selbst hervorbringt, die historisch überhaupt erst einmal zu erfassen und aufzuarbeiten ist.
Insbesondere die zeitgenössischen sozialwissenschaftlichen Forschungen stellen für die Geschichtswissenschaft in diesem Sinne eine eigene Kategorie dar, die mit der klassischen Unterscheidung von Quellen und Literatur nicht zureichend erfasst wird, weil sie beides zugleich sind.[12] Sie sind kulturgeschichtliche Zeugnisse dafür, wie die historischen Akteure die eigene Gegenwart verstanden haben, wenn sie zum Beispiel die sozialkulturellen Entwicklungen der siebziger Jahre als Wertewandel interpretierten. Zugleich liefern sie Datenmaterial und Analysekategorien, auf denen historische Deutungen aufbauen müssen, wenn sie nicht hinter den Stand der zeitgenössischen Gegenwartsdeutung zurückfallen wollen. Allerdings verfolgen sie andere Erkenntnisabsichten, indem sie nach regelhaften Aussagen und Modellen suchen, wo die historische Forschung nach kausal-genetischen Erklärungen bestimmter Entwicklungen fragt. Zudem sind sie Teil des zeitgenössischen Geschehens, das sie analysieren und das sie zugleich selbst beeinflussen. Deshalb wäre es falsch, sie unkritisch zu übernehmen und einfach fortzuschreiben.
Es geht vielmehr darum, die zeitgenössischen Selbstbeobachtungen auf ihre empirische Substanz, ihre thematische Signifikanz und ihre historische Plausibilität hin zu prüfen. Das gilt nicht zuletzt für Großkategorien wie das klimageschichtliche «Anthropozän», die philosophisch-ästhetische «Postmoderne» oder die «nachindustrielle Gesellschaft». Die Gegenwartsbetrachtung neigt dazu, welthistorische Brüche zu erkennen, wo die Geschichtswissenschaft nonchalant nichts Neues unter der Sonne entdeckt. Feuilletonistische Gegenwartsdiagnosen wiederum pflegen einzelne Aspekte herauszugreifen, und sie sind frei für die meinungsgeleitete Pointierung, während sich das geschichtswissenschaftliche Urteil den Ansprüchen erkenntnisoffener und empirisch belegter Analyse stellen muss.
Der Mehrwert einer solchen Untersuchung in historischer Perspektive liegt daher erstens in der Zusammenführung verschiedener gegenwartswissenschaftlicher Erklärungsansätze und Erkenntnisse, zweitens in deren Verbindung mit historischen Analysekonzepten und drittens in der historisch-diachronen Einordnung und Erklärung zentraler Entwicklungen. Sie möchte keine faktengesättigte dichte Erzählung bis an die Schwelle der unmittelbaren Gegenwart sein. Sie will vielmehr die Entstehung von Phänomenen und Problemen in ihren jeweils relevanten zeitlichen und räumlichen Kontexten erklären.
Dazu lässt sie sich von folgenden Fragen leiten: Woher kommen die Phänomene? Was hat sich verändert? Wo liegen die Ursachen und die treibenden Kräfte des Wandels? Wie zwangsläufig waren die Entwicklungen, und was wären Alternativen gewesen? Was ist Teil übergreifender Entwicklungen, und was ist national spezifisch? Was ist historisch wirklich neu? Und lassen sich Zukunftsoptionen absehen?
In zeitlicher Hinsicht geht dieses Buch nicht von einem bestimmten Ausgangspunkt aus, um eine Geschichte seit 1989 oder eine Geschichte von … bis … zu erzählen. Stattdessen setzt es in der Gegenwart an und wendet den Blick zurück. Wie weit sie dabei zurückgreift, hängt vom jeweiligen Gegenstand ab. Während die Entwicklung der Finanzmärkte vor allem auf die Liberalisierungen seit den achtziger Jahren zurückgeht, rekurriert die Darstellung der Geschlechterbeziehungen auf den Entwurf der bürgerlichen Gesellschaft im 19. Jahrhundert, und die Entwicklung des Fortschrittsdenkens und der Moderne reicht bis zur Aufklärung zurück. Dabei hat sich herausgestellt, dass vor allem zwei Zeiträume immer wieder als Referenzpunkte der Gegenwart in den Blick geraten: die siebziger und achtziger Jahre des 20. Jahrhunderts, als Prämissen der klassischen Moderne in Frage gestellt wurden, sowie die Jahrhundertwende, die als Zeit der akuten Beschleunigung und der grundlegenden Verunsicherung erlebt wurde.
In räumlicher Hinsicht gilt es, einen «Sehepunkt» (Johann Martin Chladenius) zu bestimmen, um den Gegenstand fassbar zu machen. Daher steht Deutschland im Zentrum, um das sich die jeweiligen grenzüberschreitenden Zusammenhänge wie konzentrische Kreise ausbreiten: der europäische Kontext, der transatlantische Raum bzw. der sogenannte westliche Kulturkreis sowie die globale Dimension. So erklärt sich der Sozialstaat am ehesten im Vergleich der europäischen Wohlfahrtsstaaten, während die Bedeutung der Digitalisierung nur in globaler Perspektive verständlich wird.
Große Linien lassen sich nur aus der Vogelperspektive erkennen. Dies setzt eine Auswahl voraus, die immer auch anders hätte getroffen werden können. Dieses Buch muss daher unvollständig sein, und es wird diejenigen enttäuschen, die sich mehr zu den Themen Urbanisierung und Föderalismus, internationaler Waffenhandel und Terrorismus, Sport und Freizeit, Intellektuelle und Jugendkultur, Literatur und Musik versprochen oder eine Geschichte der politischen Abläufe und der handelnden Personen bis an die Schwelle zur Gegenwart erwartet haben. Große Linien lassen sich zudem nur in groben Strichen zeichnen, nicht in detaillierter empirischer, geschweige denn archivalisch fundierter Differenzierung. Zu jedem Kapitel wird es daher Experten geben, die vieles sehr viel besser wissen als der Autor und deren Wissen zugleich die Grundlage dieses Buches ist. Ich kann nur um Nachsicht mit Verkürzungen und Vereinfachungen bitten.
Das erste Kapitel über die digitale Revolution stößt auf ein Problem, das uns auch in anderen Zusammenhängen begegnet. Einerseits lassen sich in der Geschichte Muster des Wandels und seiner zeitgenössischen Wahrnehmung erkennen, die dagegen sprechen, die Veränderungen der Digitalisierung für historisch neu zu halten. Andererseits gibt es empirische Anzeichen dafür, dass sie eine wirklich neue qualitative Dimension besitzt. Das zweite Kapitel über die globalisierte Ökonomie wird den Begriff des Neoliberalismus kritisch diskutieren und zu dem Schluss kommen, dass nicht die Liberalisierungen der achtziger Jahre das zentrale Problem waren, sondern die mangelnde ordnungspolitische Nachsteuerung in den Neunzigern. Das dritte Kapitel über Klima- und Umweltfragen wird drei Energiewenden der Moderne vorstellen: eine unbeabsichtigt nachhaltige zu fossilen Energieträgern, eine disparate zur Kernenergie und eine deutsche zu den erneuerbaren Energien. Zugleich wird es Möglichkeiten des Umgangs mit dem Klimawandel in der Perspektive unterschiedlicher Denkformen seit der Antike inspizieren.
Das vierte Kapitel über die politisch-kulturelle Verarbeitung des technologisch-ökonomischen Wandels identifiziert zwei Tendenzwenden der Nachkriegszeit: den Zusammenbruch des keynesianischen Modernisierungsparadigmas 1973 und den Einbruch der marktorientierten Modernisierungsvorstellungen 2008. Es zeigt, wie die Dekonstruktion überkommener Ordnungsvorstellungen in den achtziger Jahren zur Konstruktion einer neuen Ordnung, der Kultur der Inklusion führte.
Das fünfte Kapitel versucht sich an einer modernen, mehrschichtigen Sozialstrukturanalyse. Wachsende materielle Ungleichheit entsteht durch zunehmende Spreizung an den Rändern, weil vor allem die Reichen immer mehr und reicher werden, während die Armen zwar nicht ärmer, ihre Nachteile aber größer werden. Die Mittelschichten sind in Deutschland hingegen stabiler geblieben als oft behauptet. Ansonsten gehen die Veränderungen der Gesellschaft auf neue Formen sozialer Ungleichheit zurück. Historisch neu sind der fertilitätsbedingte Bevölkerungsrückgang und die Umkehr der Altersstruktur der Bevölkerung, während das große Problem vieler Migranten, vor allem türkischer Zuwanderer, in einer mehrfachen Randständigkeit sozialer, ethnischer, kultureller und religiöser Art und seine Lösung im Aufstieg in die deutschen Mittelschichten liegt. Neu ist weiterhin der fundamentale Wandel im Verhältnis der Geschlechter. Dabei ist weibliche Erwerbstätigkeit zum zentralen Kriterium ausgleichsbedürftiger Ungleichheit geworden, das die neue Kategorie sozialer Ungleichheit zwischen Erwachsenen mit Kindern und kinderlosen Erwachsenen überlagert. Historisch neu ist ferner die freie Wahl zwischen gesellschaftlich akzeptierten Lebensformen, wobei im Bereich der Familien mit Kindern eine eher begrenzte Pluralität festzustellen ist.
Das sechste Kapitel über das Verhältnis von Staat, Wirtschaft und Gesellschaft zeigt, dass sich Territorialstaaten und ihre Exekutiven entgegen allen Diagnosen vom Niedergang des Nationalstaates als hoch anpassungsfähig erwiesen haben. Vor neuen Problemen steht die Demokratie. Dabei sind alle modernen Demokratien kapitalistisch, aber nicht alle kapitalistischen Systeme sind demokratisch. Die asymmetrische Abhängigkeit von Kapitalismus und Demokratie hat eine lange Tradition, wobei sich seit den siebziger Jahren eine spezielle Liaison von kreditbedürftigen Staaten und renditeorientierten Banken herausgebildet hat. Das Hauptproblem für die Demokratie liegt in der Verlagerung von Souveränität auf internationale Exekutiven ohne eine dem Nationalstaat vergleichbare demokratische Legitimation und in der Abhängigkeit der Staaten von den Finanzmärkten aufgrund übermäßiger Staatsverschuldung.
Dies zeigt sich im siebten Kapitel zur Geschichte der europäischen Integration. Ihre historische Leistung liegt in einem neuartigen Umgang der europäischen Staaten miteinander, in der Überwindung der Grenzen und der demokratischen Stabilisierung nach 1945 und nicht weniger nach 1990. Ihre Gefährdung liegt in der Verselbständigung einer «immer engeren Union».
Das abschließende Kapitel zur internationalen Politik geht von der Ordnung von 1990 aus, die aus der Situation geboren wurde und kein großes Design besaß, wie die Ordnungen von 1648 oder 1815 es besessen hatten. Sie gründete auf der amerikanischen Hegemonie und der Ausdehnung der westlichen Ordnung nach Osten. Ihr historischer Erfolg lag in der Stabilisierung Ostmitteleuropas, ihr Problem im Verhältnis zu Russland. Letzteres war aus dem Ende des Kalten Krieges herausgegangen wie die geschlagene Habsburgermonarchie aus dem deutschen Krieg von 1866: geschont, aber nur noch Juniorpartner. Die neue Ordnung in Europa funktionierte, solange Russland diese Position akzeptierte; seit Russland dies nicht mehr tut, steht auch die europäische Ordnung zur Disposition. Schließlich zeigt sich im Blick auf globale Kräfteverschiebungen wie das «chinesische Paradox», dass sich Elemente einer Weltgesellschaft verbreiten, dass sie aber traditionelle Machtpolitik und gewaltsame Konflikte keineswegs ablösen.
Die Hoffnung auf eine bessere Welt ist Gegenstand der Schlussbetrachtungen, die historische Neuerungen, historische Muster und zentrale Tendenzen der Gegenwart vorstellen: das Entschwinden des 20. Jahrhunderts, die Rahmenverschiebungen des Denkens, Redens und Handelns und den Wandel der Freiheit sowie den Umgang mit Ungewissheit.
All dies lässt sich bestreiten und kritisch diskutieren. Und genau das ist die Absicht dieses Buches.
Als Daniel Genis im Februar 2014 nach zehnjähriger Haft aus dem Gefängnis entlassen wurde, fand er sich in einer anderen Welt wieder. Zuallererst fiel ihm auf, dass die amerikanischen Autos auf europäische Größe geschrumpft waren. Den entscheidenden Unterschied aber machten die «Telefone, die allen Passanten heute an den Händen kleben. […] Ich gehörte zu der allerletzten Kohorte, die noch keine Jugend online hatte. Wir haben auf der Highschool online keinen Klatsch ausgetauscht oder elaborierte Videospiele gespielt. Niemand beging Selbstmord wegen hochgeladener Bilder. Drogen wurden an der Ecke gekauft, nicht bei Craigslist. […] Vor zehn Jahren wusste ich, in welche Bars man für einen One-Night-Stand gehen musste und wie man jemanden im Museum aufreißt […]. Heute verhilft Ashley Madison Verheirateten zu Seitensprüngen und auf Grindr können Homosexuelle One-Night-Stands organisieren. […] Der Unterschied liegt nicht so sehr in der Technologie, obwohl die Smartphones die digitale Welt von den Schreibtischen befreit haben, sondern in der Art, wie sie die Gesellschaft durchdringen.»[1]
Manchmal muss man nur bis eins zählen, um die Welt zu verändern.[2] Null und eins – so einfach es klingt, so revolutionär war die Wirkung für die Übermittlung von Signalen.
Das Prinzip war nicht völlig neu. Seit der Antike wurden Signale übertragen, zunächst durch Rauch- und Feuerzeichen; das schweizerische Höhen- oder Chutzenfeuer benötigte sechs Stunden, um in der Frühen Neuzeit einen Alarm von Genf nach Bern zu befördern. Schneller ging es seit Ende des 18. Jahrhunderts mit der optischen Telegraphie; mit Hilfe schwenkbarer Signalarme und codierter Lichtzeichen konnten innerhalb einer Stunde zwanzig Wörter von Paris nach Lille geschickt werden.[3] Eine neue Dimension erreichte die Signalübermittlung mit dem elektro-magnetischen Telegraphen. Er verbreitete sich im 19. Jahrhundert mit der Eisenbahn, weil diese ein zuverlässiges Informationssystem benötigte, das den Zügen vorauseilte, um Abfahrten, Verspätungen oder Defekte zu melden. Mit dem Telegraphen entstand auch das Morsealphabet: ein Codesystem aus kurzem Zeichen, langem Zeichen und Pause – ein und aus statt eins und null.
Stets waren die übermittelten Signale physikalische Größen – Licht, Ton oder ein elektrischer Impuls. Das änderte sich mit dem Übergang vom analogen zum digitalen Signal. Die Umwandlung in einen binären Zahlencode aus 0 und 1 – kurz: die Digitalisierung – veränderte die Erfassung und die Bearbeitung von Daten und brachte die Geschichte der Signalübermittlung mit der Geschichte des Rechnens zusammen.
Mit dem Abakus, einem Rechenbrett, hatten die Sumerer schon im vierten und dritten vorchristlichen Jahrtausend ein Hilfsmittel erfunden, um das Rechnen zu vereinfachen. Gottfried Wilhelm Leibniz, der sich in der Kunst der Mathematik übte, erklärte noch schlicht: «Es ist eines ausgezeichneten Menschen unwürdig, gleich Sklaven seine Zeit mit Berechnungen zu verbringen.»[4] Doch mit der Hochindustrialisierung und ihren technologischen Innovationen bedurfte es, von der Lohnbuchhaltung bis zur Volkszählung, leistungsfähigerer Rechenmaschinen.
Herman Hollerith, ein Angestellter des amerikanischen Zensus-Büros, erfand zur vereinfachten Auswertung der Volkszählungen, die in den 1880er Jahren immerhin 7,5 Jahre gedauert hatte, eine Zählmaschine, die mit einem Lochkartenverfahren arbeitete. Er gründete die Deutsche Hollerith-Maschinen Gesellschaft mbH, die 1924 in der International Bureau Machines Corporation aufging. Das eigentliche Rechnergeschäft der IBM begann allerdings erst während des Zweiten Weltkrieges, als der amerikanische Staat Forschungsgelder für leistungsfähige Rechenmaschinen bereitstellte. Noch in den fünfziger Jahren stammten 70 Prozent des Budgets für Forschung und Entwicklung aus staatlichen Mitteln.
Die Anfänge des Computers waren also eng mit dem Zweiten Weltkrieg und mit militärischen Interessen verbunden. Das Ergebnis war die digitale Koalition aus Nerds und Militärs. Der britische Informatiker Alan Mathison Turing war während des Krieges im britischen Bletchley Park mit der Entschlüsselung der deutschen Nachrichtencodes beschäftigt und entwickelte zu diesem Zweck ein photoelektrisches Lesegerät.[5] Nach Kriegsende wurde es in den USA technisch weiterentwickelt. Bis zum Ende der sechziger Jahre diente die Informationstechnologie vor allem militärischen Zwecken.
Am Wettlauf um die leistungsfähigsten Maschinen nahm auch der Luftfahrtingenieur Konrad Zuse im Haus seiner Eltern in Berlin-Kreuzberg teil. Dort baute er Rechenmaschinen zusammen und arbeitete mit einem ersten System binärer Zahlen. Die Idee, Signale nicht physisch umzuwandeln, wie es der Schallplattenspieler tat, sondern Worte, Schrift oder Bilder, Musik und Stimme in speicher- und übertragbare Zahlenwerte umzurechnen, eröffnete neue Welten. Die digitale Revolution konnte beginnen.
Die Übertragung in Zahlenwerte benötigte allerdings entsprechende Kapazitäten an Rechenleistung, denen die ersten Computer nicht genügten. Sie arbeiteten mit Elektronenröhren, die sich bis zur Weißglut aufheizten, wenn sie nicht ausreichend gekühlt wurden, sie waren platzintensiv und störungsanfällig. Der Durchbruch gelang mit einer weiteren jener Koalitionen, die der Digitalisierung ihre Durchschlagskraft verliehen: der Verbindung von Mathematik und Elektrotechnik.
Das Prinzip der Mikroelektronik liegt darin, eine elektronische Schaltung mit allen Bauelementen und Verdrahtungen auf einem einzelnen Halbleitersubstrat anzubringen (einem Festkörper, der je nach Temperatur als elektrischer Leiter oder als Isolator wirkt). Fertig war der Chip, der nun allerdings noch erheblich verkleinert werden musste. Der erste Computer namens ENIAC in Pennsylvania 1946 wog 30 Tonnen und nahm den Platz einer Turnhalle ein. Schuld daran waren vor allem die Transistoren, elektronische Bauelemente zum Schalten und Verstärken von elektrischen Signalen. Dass sie in immer größerer Zahl auf immer kleineren Chips untergebracht wurden, machte den entscheidenden Fortschritt für die Verarbeitung von massenhaften Daten aus.
Begonnen hatte alles in den Bell Telephone Laboratories in New Jersey. Dort wurde Grundlagenforschung durch wildes Experimentieren betrieben, etwa so, wie es im 19. Jahrhundert bei der Dampfmaschine und der Eisenverarbeitung der Fall gewesen war. 1947 wurde dort der Transistoreffekt entdeckt, dass nämlich zwei Elektroden auf einem Germanium-Kristall einen elektrischen Verstärkereffekt erzielen. Die Ablösung der Elektronenröhren durch die Transistortechnik für die Herstellung von Prozessoren ermöglichte in den späten fünfziger und den sechziger Jahren den Sprung in die zweite Generation von Computern. Allerdings fanden Transistoren auf dem freien Markt zunächst nur schleppende Verbreitung, sie kamen vor allem in Hörgeräten und tragbaren Transistorradios zum Einsatz. Einmal mehr half das Militär, das Transistoren für Schiffe, Flugzeuge und Raketen anschaffte.
Für die technische Entwicklung des Computers war entscheidend, dass Transistoren auf Halbleitern montiert wurden und Silizium in den sechziger Jahren das Germanium als Halbleitermaterial ersetzte. Silizium sorgte für geringes Gewicht, gute Wärmeleitfähigkeit, hohe Elastizität – und gab dem kalifornischen Tal seinen Namen. 1955 siedelte sich William Shockley, der in den Bell Laboratories an der Erfindung des Transistors beteiligt gewesen war, in Palo Alto, fünfzig Kilometer südlich von San Francisco, an. Der Gründung von Fairchild Semiconductors folgten Ablegerfirmen, und bald bildete sich der «Schmelztiegel der Innovation im Informationszeitalter»[6] heraus, ein räumlich verdichtetes Milieu aus naturwissenschaftlich-technologischem Wissen, Firmen und Arbeitskräften, in das die Kultur der kalifornischen Freaks und Start Ups und der gegenkulturellen individuellen Freiheit der siebziger Jahre einfloss – und an dem nicht mehr in erster Linie das Militär beteiligt war.
Die Entwicklung von Halbleitern aus Silizium und von integrierten Schaltungen machte es schließlich möglich, den gesamten Hauptprozessor auf einem Chip unterzubringen. Mit dem Mikroprozessor TMS 1000 von Texas Instruments war 1971 die dritte Generation von Computern geboren. Stetig stieg nun die Dichte von Transistoren und Bauelementen auf einem Chip: von ca. 50 Bausteinen 1970 auf mehr als eine Milliarde Transistoren auf einem weniger als einen Zentimeter langen Siliziumstück um 2010. Der Rechner entwickelte sich zu einem neuen Kommunikationsmedium wie zuvor der Druck, das Telefon oder das Fernsehen. Er war das Produkt einer neuen Informationstechnologie aus Mathematik und Mikroelektronik, die neue Dimensionen und Geschwindigkeiten der Datenverarbeitung möglich machte und innerhalb weniger Jahrzehnte alle Lebensbereiche durchdrang. Wieder mussten dazu zwei Entwicklungen zusammenkommen: die Verkleinerung und Verbilligung der Personal Computer und ihre Vernetzung.
Die Entwicklung eines Computers, der auch von Laien bedient werden kann, hatte in den sechziger Jahren begonnen. Nach dem technischen Entwicklungsschub in den siebziger Jahren erfolgte seine Massenverbreitung in den Achtzigern, eigentümlicherweise in einer Zeit der Krisenstimmung in der westlichen Welt nach dem Ende des Nachkriegsbooms, im Schatten der sozialen Protestbewegungen und des sogenannten zweiten Kalten Krieges. 1976 gründeten Stephen G. Wozniak, ein Computerspezialist bei Hewlett Packard, und Steve J. Jobs die Firma Apple. Nachdem sie im ersten Jahr 200 Computer verkauft hatten, erzielten sie 1982 bereits einen Jahresumsatz von über zwei Milliarden Dollar. IBM hatte diese Entwicklung zunächst versäumt. 1981 zog sie nach und brachte einen neuen Player ins Spiel. Sie stattete ihre PC mit dem Betriebssystem MS DOS aus und verhalf damit dem 1975 von Bill Gates gegründeten Unternehmen Microsoft zu einer marktbeherrschenden Position im Softwarebereich. Steve Jobs und Bill Gates gelangten wie im 19. Jahrhundert die Stahlbarone und Eisenbahnkönige zu märchenhaftem Reichtum. Seit den siebziger Jahren ging der Antrieb für die mikroelektronisch-digitale Entwicklung vom Markt aus. Die ursprüngliche Koalition von Militärs und Nerds wurde abgelöst durch eine Allianz von Informationstechnologie und big business.
Seine umfassende lebensweltliche Dimension gewann der Computer durch eine weitere Entwicklung: das Internet. Die globale Vernetzung von Kommunikation an sich war kein neues Phänomen des späten 20. Jahrhunderts. Sie hatte bereits mit den transkontinentalen Telegraphenkabeln seit den 1860er Jahren Einzug gehalten. Mit der digitalen und mikroelektronischen Technologie gewann sie jedoch eine neue Dimension. Auch hier lagen die Anfänge im militärischen Bereich. Als Reaktion auf den «Sputnik-Schock», das Erschrecken im Westen über die technologischen Kapazitäten der Sowjetunion nach dem Start ihres Erdsatelliten Sputnik 1 am 4. Oktober 1957, richtete die Advanced Research Project Agency des US-Verteidigungsministeriums ein Kommunikationssystem ein, das gegen nukleare Angriffe unempfindlich sein sollte und daher dezentral angelegt war: das Arpanet. 1983 wurde es in einen militärischen und einen wissenschaftlichen Teil aufgespalten und bis zu den neunziger Jahren vollständig privatisiert. Dabei verbanden sich abermals zwei Strömungen: die Verteidigungspolitik im Kalten Krieg und eine gegenkulturelle Hacker-Szene.
Die neunziger Jahre wurden zum Jahrzehnt des Übergangs in die digitale Informationsgesellschaft. 1990 entwickelte eine Forschergruppe am Centre Européen pour Recherche Nucléaire (CERN) bei Genf das world wide web samt der Elemente Hypertext und der Auszeichnungssprache HTML, des Übertragungsprotokolls http und der Identifikationsbezeichnung URL. Seit 1994/95 standen mit dem Netscape Navigator und dem Internet Explorer sowie Suchmaschinen Instrumente zur Verfügung, um dieses Netz zu nutzen. Es folgte die wohl historisch schnellste Verbreitung eines Kommunikationsmediums. Hatte das Radio in den USA dreißig Jahre gebraucht, um 60 Millionen Menschen zu erreichen, und das Fernsehen fünfzehn, so gelang dies dem Internet innerhalb von drei Jahren. Goldgräberstimmung machte sich breit. 1995 war das Gründungsjahr des e-commerce (Amazon, Ebay), und zugleich baute sich die «Dotcom-Blase» auf, eine Spekulationsblase um die webbasierte new economy. Auch ihr Platzen im Jahr 2000 konnte die globale Digitalisierung nicht beeinträchtigen. E-Mail wurde zur alltäglichen, zunehmend genutzten Kommunikationsform, die den physischen Transport von Papier erübrigte und neue Bearbeitungsgeschwindigkeiten von Texten und Bildern ermöglichte.
Neue Kommunikationsformen und soziale Netzwerke führten schließlich zum «Web 2.0» der nicht nur konsumtiven, sondern interaktiven Nutzung. Tim O’Reilly, angeblich der Erfinder des Ausdrucks Web 2.0, erklärte: «Web 2.0 ist ein Name, den wir einem tiefsitzenden, langfristigen Trend anhängen: Alles wird miteinander verknüpft. Das Internet wird zu einem Kleber, der alles verbindet, was wir anfassen.»[7] Damit lösten sich auch die klassischen Unterscheidungen von Kommunikation (unmittelbare Kommunikation face to face versus massenmediale Kommunikation einer an alle) zugunsten neuer Formen der Kommunikation many to many auf.
Moderne Massenmedien waren mit der Massenpresse im späteren 19. Jahrhundert aufgekommen und im 20. Jahrhundert durch Hörfunk und Fernsehen ergänzt worden. Nachdem in den USA schon in den siebziger Jahren Deregulierungen vorgenommen worden waren, etablierte sich in Westeuropa in den achtziger Jahren ein duales System von öffentlich-rechtlichen und privaten Rundfunkanbietern. Oft ging die damit verbundene allgemeine Kommerzialisierung von sportlichen Großereignissen aus: 1992 schloss der Sender Sky einen Vertrag über 300 Millionen Pfund für die Übertragungsrechte der englischen Premier League; 2015 bezahlten Sky und BT Sport über 5 Milliarden Pfund für vier Jahre.[8]
Im Bereich der Telefonie stießen Satellitentechnik und Glasfaserkabel in den achtziger Jahren das Tor zu neuen Kapazitäten und einer Verbilligung auf, die mit der Privatisierung des Telekommunikationsmarktes einherging. 1984 waren in den USA das Monopol von AT&T aufgelöst und der Markt für Ferngespräche liberalisiert worden; im selben Jahr wurde auch die British Telecom privatisiert, etwas später folgte die Deutsche Bundespost. Getragen waren diese Privatisierungen von der marktliberalen Überzeugung der achtziger und neunziger Jahre, dass Staatsbetriebe die notwendigen Modernisierungen nicht leisten könnten, sondern die Bedürfnisse einer Informationsgesellschaft neuen Technologien und privaten Anbietern überlassen sollten. Mobile Technologien lösten die Telefonie vom Festnetz und damit aus räumlicher Bindung.
Mit dem Ausbau entsprechender Netze wuchs sie mit dem Internet zusammen und setzte einen Prozess der Medienkonvergenz in Gang. Das war kein völlig neues Phänomen. Schon bei der Entwicklung des Tonfilms waren ein auditives und ein visuelles Medium miteinander verschmolzen. Mit der Verbindung von PC, Internet und Fernsehgerät, von Buch oder Zeitung und Computer, von Fotoapparat, Musikabspielgerät und Telefon zu tragbaren multimedialen Kleincomputern erreichte dieser Prozess allerdings zu Beginn des 21. Jahrhunderts eine neue Dimension. Durch ihre permanente Nutzung gewannen digitale Medien einen steuernden und rhythmisierenden Einfluss auf den gesamten Alltag (allein schon in Form des steten Blicks auf eingegangene Nachrichten). Zugleich eröffneten sich neue Möglichkeiten der Systemintegration im Automobilbau oder in der Medizintechnik.[9]
Den ersten Hard- und Softwareunternehmen wie Intel, Apple, Microsoft und SAP folgte Anfang des 21. Jahrhunderts eine zweite Welle von Technologien und Playern wie Google und Twitter, Yahoo, Facebook und Youtube, Skype oder Amazon. Individualisierte Benutzerprofile und interaktive Kommunikation in Verbindung mit immer umfangreicheren Kapazitäten der Datenverarbeitung machten es möglich, Nutzer beispielsweise durch Werbung individualisiert zu adressieren. Kommunikation und Information ordneten sich neu. Zunehmend dominierte das Internet die Medienlandschaft. Die neuen Formen der Internetkommunikation veränderten Seh- und Lesegewohnheiten. Sie bedrängten den klassischen Journalismus der gedruckten Zeitung und des Journalisten als Informationsvermittler, während mit Internetdiensten wie Google neue Zugangsregelungen zu Information entstanden. Unterdessen konzentrierte sich die digitale Medienmacht im Silicon Valley. Als in der globalen Überwachungs- und Spionageaffäre 2013/14 die Kooperation von amerikanischen Telekommunikationsunternehmen mit dem Geheimdienst NSA in das Blickfeld rückte, stellte sich die Frage, ob die Verbindung mit dem Militär wirklich nur eine abgeschlossene Episode aus der Frühgeschichte der Digitalisierung war.
Was bedeuten Digitalisierung und globale Vernetzung in ihren Auswirkungen eigentlich konkret? Die Anzahl der verfügbaren Informationen ist exponentiell angewachsen. Digitalisierung und Vernetzung ermöglichen auf breiter Ebene (nicht nur, wie zuvor schon das Telefon, in einzelnen Fällen) weltweite Kommunikation in Echtzeit. Diese zunehmende Medialisierung der verschiedensten Lebensbereiche veränderte Sehgewohnheiten, Zeitrhythmen und Wahrnehmungen, Kommunikationsweisen und Verhaltensformen. Das Ergebnis der Verbindung von Kapitalismus und kalifornischer Hippie-Kultur hat Marshall T. Poe als «Informationskapitalismus» bezeichnet. Der Kapitalismus hat sich als fähig erwiesen, andere Strömungen und auch Gegenbewegungen zu inkorporieren. Zugleich veränderte die Informationstechnologie den Kapitalismus. Multimedia und IT wurden zu den zentralen dynamischen Wachstumsbranchen um die Jahrtausendwende, wie es Textil, Eisen und Stahl, Chemie, Elektrizität und Automobil in den ersten beiden Stadien der Industrialisierung gewesen waren.
Dabei sind zwei gegenläufige Prozesse zu beobachten. Einerseits hat die Digitalisierung globale Vereinheitlichungen herbeigeführt – bis zur identischen Optik und Akustik von Benutzeroberflächen und der weltweiten Nutzung der gleichen Modelle von Smartphones. Andererseits hat sie Divergenzen erzeugt. Die USA haben eine neue Dominanz im Hinblick auf Entwicklung und Produktion gewonnen, und es war nicht zuletzt die digitale Revolution, die in den achtziger Jahren die Entwicklung zwischen dem Westen und den kommunistischen Staaten auseinander trieb. Es gehört zu den Ironien der Geschichte, dass die DDR-Führung die Bedeutung der Mikroelektronik erkannt hatte und das Land mit milliardenschweren Investitionen in diese Zukunftstechnologie endgültig ruinierte, weil der Staatsbetrieb mit der Dynamik des Silicon Valley nicht mithalten konnte.[10]
Eine weitere Ambivalenz kommt hinzu. Einerseits lebte die digitale Revolution – im Gegensatz zur DDR – von flexiblen netzwerkartigen Organisationsformen und deren Fähigkeit zur ständigen Rekonfiguration, von hoher Innovationsdichte und schnellen Veränderungen. Andererseits entwickelte der Informationskapitalismus bald Tendenzen zur Konzentration, zur Bildung neuer Oligopole und internationaler Multimedia-Konzerne mit marktbeherrschender Position. Sie ersetzten staatliche Monopole, kauften vorantreibende Start-ups auf[11] und verwandelten ursprünglich offene Systeme von Computer-Freaks mit ihrer Kultur des filesharing in von Monopolisten und Großkonzernen beherrschte geschlossene Systeme.
Keine historische Entwicklung ohne Ambivalenzen also. Aber warum verlief sie so, wie sie es tat? War es ein historischer Automatismus, mit dem Computer und Internet den jahrhundertealten Traum erfüllten, Informationen einfach, effizient und unbegrenzt zu sammeln, zu speichern und zu sichten?[12] Die historische Erfahrung besagt, dass eine neue Technologie sich nicht automatisch verbreitet und etabliert. Viele erfolgreiche Technologien wären in ihren Anfängen beinahe gescheitert (im Falle der Computertechnik musste sich der Transistor erst auf Umwegen durchsetzen), und viele Technologien wie etwa der Rotationskolbenmotor scheitern tatsächlich und verschwinden aus dem historischen Blickfeld. Neue Technologien setzen sich der historischen Erfahrung zufolge in einem Umfeld durch, in dem sie als nützlich erachtet werden. Die Computertechnologie bedurfte der militärstrategischen Interessen und der staatlichen Großforschungsprogramme, später der ökonomischen Interessen in Verbindung mit einer Kultur technologischer Kreativität.
In diesem komplexen Wechselspiel lässt sich nicht sagen, was zuerst kam. Die Deregulierung der Londoner Börse 1986 entsprang dem politisch-ökonomischen Willen zur Belebung der Marktkräfte, die ihrerseits durch die Computertechnologie in Gang gesetzt worden waren. Und nicht zu überschätzen ist das Phänomen, dass sich einmal in Gang gesetzte Entwicklungen verselbständigen. Gerade die Geschichte der Digitalisierung und der Globalisierung ist – wie die Geschichte der Moderne überhaupt und insbesondere die Zeit vor 1914 – durch die Entfesselung von Kräften gekennzeichnet, die unvorhergesehene Wirkungen entfalten und die Notwendigkeit nach sich ziehen, sie wieder einzuhegen, ohne dass sie sich grundsätzlich steuern ließen.
Digitalisierung und Mikroelektronik bewirkten die einschneidendsten Veränderungen im ausgehenden 20. Jahrhundert. Auf breiter Front und oftmals kaum bemerkt zogen Chip und Netz in die Lebenswelten ein. Digitale Medien wurden zur Basistechnologie des Alltagslebens, von der Steuerung der Haushaltstechnik über Terminals in Museen, Hilfen für Gehörlose, Ticketbuchungen und lasergesteuerte smart weapons bis zur Aktenführung der Bundesverwaltung. Computer-aided design, die rechnerbasierte Konstruktion und Simulation geometrisch anspruchsvoller Produkte, machte spektakuläre Architektur wie Zaha Hadids Heydar Aliyev Center in Baku oder Daniel Libeskinds One World Trade Center in New York möglich und eröffnete Graphikern und Designern neue Welten. In der Arbeitswelt wandelten sich die Produktionsabläufe – sogar der Hochofen, die Industrieanlage des analogen Eisenzeitalters schlechthin, wurde digital gesteuert –, und durch die Automatisierung der Fließbandproduktion und die computer-to-plate-Technologie verschwanden ganze Berufsgruppen wie Fließbandarbeiter und Setzer. Andere wandelten sich, wie der Beruf der Sekretärin, als Stenoblock und Schreibmaschine aus dem Büro verschwanden.
Besonders bedeutsam war die Informationstechnologie für die Entwicklung der Kapitalmärkte. Schon Telegraph und Telefon waren genutzt worden, um relevante Entwicklungen zu antizipieren. Dabei wurden Finanztransaktionen im Parketthandel ursprünglich per Zuruf oder Handzeichen vollzogen. 1971 wurde die National Association of Securities Dealers Automated Quotations gegründet, die Händler-Telefonverbindungen in einem zentralen System zusammenführte. 1983 wurde der Computerhandel eingeführt, der den 24-Stunden-Handel mit den drei Zentren Tokio, London und New York in drei Zeitzonen ermöglichte und eine massive Belebung der Finanztransaktionen herbeiführte.
Diese neuen technologischen Möglichkeiten und der zunehmende Wettbewerbsdruck auf die Börsen zogen politische Reaktionen nach sich: die Deregulierungen der Finanzmärkte.[13] 1975 wurden mit der May Day Revolution in New York die festgelegten Maklerprovisionen abgeschafft. Dem Abbau nicht wettbewerbsfähiger Unternehmen folgte die Gründung neuer Maklerunternehmen in den frühen achtziger Jahren. Diese Veränderungen übten wiederum Druck auf die Londoner Börse aus. 1983 verständigte sie sich mit der britischen Regierung, Mindestkommissionen sowie die Unterscheidung zwischen Maklern im Kundengeschäft und Wertpapierhändlern abzuschaffen und den Börsenhandel für Außenstehende zu öffnen. Das Ergebnis war der Big Bang vom Oktober 1986, eine Welle von mergers und acquisitions und die Entstehung neuer Finanzkonzerne. Die Bewegung gewaltiger globaler Kapitalströme mit dem Internet als technologischem Fundament bestimmte die ökonomische Entwicklung um die Jahrtausendwende.
Digitalisierung und Mikroelektronik lassen sich als dritte Stufe der Industriellen Revolution seit dem letzten Drittel des 20. Jahrhunderts verstehen, nachdem Textil und Eisen die erste Stufe im späten 18. Jahrhundert und Stahl, Chemie und Elektrizität die zweite Etappe im späten 19. Jahrhundert bestimmt hatten. Die dritte Stufe ist zwar nicht mehr im engeren Sinne industriell. Etikettierungen einer postindustriellen Wissensgesellschaft haben sich jedoch als vorschnell erwiesen. Am ehesten war dies in der Finanzindustrie der Fall; als sie aber in die Krise geriet, wurden insbesondere in Deutschland die nach wie vor industrielle Substanz der Ökonomie und ihre Bedeutung erkennbar. Dienstleistungen werden in Deutschland in erster Linie produktionsbezogen eingesetzt,[14] allerdings sind Informationen, Daten und Wissen für Produktion, Innovation und die gesamte Gesellschaft immer wichtiger geworden.
Aber ist das alles wirklich neu? War die «Verwandlung der Welt», wie sie Jürgen Osterhammel für das 19. Jahrhundert beschrieben hat, nicht eine ältere Erfahrung? «Die Welt ist verändert, seit es möglich ist, in Paris gleichzeitig zu wissen, was in Amsterdam, Moskau und Neapel und Lissabon in derselben Minute geschieht», schrieb Stefan Zweig im Jahr 1943.[15] Eisenbahn, Telegraph und Elektrizität hatten Raum und Zeit schon im 19. Jahrhundert zusammenschrumpfen lassen, und auch die umfassende lebensweltliche Beschleunigung war den Zeitgenossen bestens vertraut.
Mit Ausnahme von Rauch- und Feuerzeichen waren Nachrichten in der Vormoderne an ihren Überbringer gebunden. Und um von einem Ort zum anderen zu gelangen, mussten Mensch oder Tier ihre Muskeln betätigen, bestenfalls blähte ein günstiger Wind die Segel. Entfernung besaß eine dämpfende Funktion. Moderne Technologien und Medien hingegen lösten Fortbewegung und Kommunikation von der Biomotorik. Sie erschlossen und überwanden Räume und synchronisierten die Zeit.[16]
Als 1870 die erste Telegraphenverbindung von England nach Indien in Betrieb genommen wurde, benötigte die Übermittlung eines Telegramms von Bombay nach London statt eines Monats nur noch 28 Minuten. Das Telefon «erhöht die Reichweite von Sprache und Gehör durch die Umsetzung von Schall in elektrische Signale»[17], und der Satellit löste die Übermittlung audiovisueller Informationen von der Kategorie der Entfernung. Berichte über Naturkatastrophen, ein Fußballspiel oder einen Amoklauf in einem anderen Land wurden zeitgleich und überall verfügbar. Und das Internet ermöglichte es einem Flugreisenden, nach der Ankunft an einem tausende Kilometer entfernten Ziel eine kurze Mitteilung nach Hause zu schicken und die Nachrichten seit dem Abflug zu checken. Neue Formen wie E-Mail, Twitter und SMS anstelle des einmal täglich zugestellten Postbriefs haben Kommunikation beschleunigt und vermehrt. Zeit und Ort haben ihre determinierende Wirkung verloren – Erdbeeren gibt es auch im Winter.
Die Kommunikationswissenschaften sprechen bei diesen Entwicklungen von Medialisierung bzw. Mediatisierung. Beide Begriffe sind nicht wirklich klar,[18] was sich schon darin zeigt, dass es keine Einigung auf einen der beiden gibt. Worum es geht, ist ein gemeinsamer Nenner für ein komplexes Phänomen, die Orientierung zunehmender gesellschaftlicher Bereiche an Medien und ihrer Logik.
19