„Die Ära Der Extreme“

Inhaltsverzeichnis:

Video: „Die Ära Der Extreme“

Video: „Die Ära Der Extreme“
Video: The Art of FLIGHT | Official Trailer 2023, März
„Die Ära Der Extreme“
„Die Ära Der Extreme“
Anonim

Das zwanzigste Jahrhundert war vielleicht das am schnellsten wachsende Jahrhundert in der Weltgeschichte. Ein beispielloser Sprung im wissenschaftlichen und technologischen Fortschritt, der Sieg über viele Krankheiten, der erste bemannte Flug ins All. Der Aufstieg rassistischer Theorien, zwei Weltkriege, die Atombombe. Im Buch „Das Zeitalter der Extreme. The Short Twentieth Century (1914-1991)" (Corpus Publishing House), übersetzt ins Russische von Olga Lifanova und Alexandra Nikolskaya, untersucht der britische marxistische Historiker Eric Hobsbawm im Detail, wie das 20. N + 1 lädt seine Leser ein, ein Fragment zu lesen, das der dominierenden Rolle der Theoretiker in der Wissenschaft des 20. Jahrhunderts und der Trennung theoretischer Konstruktionen von den Daten der Sinneserfahrung und des gesunden Menschenverstands gewidmet ist.

Image
Image

II

Um die Mitte des "Jahrhunderts des Imperiums" gibt es eine Abgrenzung zwischen theoretischen wissenschaftlichen Erkenntnissen und sinnlicher Erfahrung. Ebenso wird die Verbindung zwischen Wissenschaft und dieser besonderen Art von Logik (einer eigentümlichen Denkweise), die auf dem gesunden Menschenverstand beruht, unterbrochen. Diese beiden Kontinuitätsbrüche bestimmten sich gegenseitig. Der Fortschritt der Naturwissenschaften wurde nun von Theoretikern angeführt, die Gleichungen (d. h. mathematische Sätze) auf Papier schrieben, und nicht mehr von Experimentatoren in Labors. Im 20. Jahrhundert waren es Theoretiker, die Praktiker darauf aufmerksam machten, was sie im Lichte theoretischer Konstruktionen suchen und finden sollten. Daher kann das 20. Jahrhundert zu Recht als das Zeitalter der Mathematik bezeichnet werden. Einzige Ausnahme von dieser Regel war die Molekularbiologie, in der es Experten zufolge noch sehr wenig Theorie gibt. Aber Beobachtung und Erfahrung traten dennoch nicht in den Hintergrund. Im Gegenteil, mit dem Aufkommen neuer Instrumente und wissenschaftlicher Methoden im 20. Jahrhundert hat die Technologie die revolutionärsten Veränderungen seit dem 17. Jahrhundert erfahren. Viele Erfinder wurden sogar mit dem Nobelpreis ausgezeichnet, was ein Beweis für die höchste wissenschaftliche Anerkennung ist**.

** Nach dem Ersten Weltkrieg wurden mehr als zwanzig Nobelpreise für Physik und Chemie ganz oder teilweise für neue Forschungsmethoden, Geräte und Techniken verliehen.

Geben wir nur ein Beispiel. Ein Elektronenmikroskop (1937) und ein Radioteleskop (1957) ermöglichten es, die Grenzen der einfachen optischen Vergrößerung zu überwinden. Dadurch wurde eine tiefere Untersuchung von Molekülen, Atomen und fernen Galaxien möglich. Die Automatisierung des Laboralltags und das Aufkommen immer komplexer werdender Laborrechnungen, insbesondere mit Hilfe von Computern, haben die Fähigkeiten von Experimentatoren und Theoretikern bei der Modellerstellung deutlich erhöht. Infolgedessen traten in einigen Wissensgebieten, insbesondere in der Astronomie, manchmal sogar zufällige Entdeckungen auf, die wiederum zu innovativen Theorien führten. Die gesamte moderne Kosmologie basiert auf den Konsequenzen zweier solcher Entdeckungen: Hubbles Beobachtung der Expansion des Universums, basierend auf der Spektralanalyse von Galaxien (1929); und die Entdeckung der Mikrowellen-Hintergrundstrahlung (Radiorauschen) im Jahr 1965 durch Penzias und Wilson. Und obwohl wissenschaftliche Entdeckungen das Ergebnis der koordinierten Arbeit von Theoretikern und Praktikern sind, gehörte im "kurzen 20. Jahrhundert" den Theoretikern die führende Rolle.

Für die Wissenschaftler selbst bedeutete eine vollständige Trennung der theoretischen Konstruktionen von den Daten der Sinneserfahrung und des gesunden Menschenverstandes zunächst einen Bruch mit der üblichen Bestimmtheit wissenschaftlicher Erkenntnisse und ihrer Methodik. Die Implikationen dieser Lücke lassen sich am besten am Beispiel der Physik verfolgen – der unbestrittenen Königin der Wissenschaften der ersten Hälfte des 20. Jahrhunderts. Gegenstand der physikalischen Forschung sind sowohl die kleinsten Materieteilchen (organisch und anorganisch) als auch die Struktur und Struktur der größten materiellen Körper, beispielsweise des Universums. Deshalb blieb die Physik auch am Ende des 20. Jahrhunderts trotz der wachsenden Rivalität der Lebenswissenschaften, die seit den 1950er Jahren durch die Revolution in der Molekularbiologie grundlegende Veränderungen erfuhr, eine tragende Säule der Naturwissenschaften.

Es gab keine unerschütterlichere, konsequentere und methodisch vollständigere Wissenschaft als die klassische Physik. Aber auch die Theorien von Planck und Einstein sowie ein radikales Umdenken der Atomtheorie nach der Entdeckung der Radioaktivität in den 90er Jahren des 19. Jahrhunderts haben ihre Grundlagen untergraben. Die klassische Physik war objektiv, das heißt, die von ihr beschriebenen Phänomene waren beobachtbar, deren Grenze die technischen Möglichkeiten von Instrumenten (zum Beispiel einem optischen Mikroskop oder einem Teleskop) waren. Die klassische Physik war nicht zweideutig: Ein Objekt oder ein Phänomen war entweder das eine oder das andere, und es war ziemlich einfach, die Grenze zwischen den beiden Kategorien zu ziehen. Seine Gesetze waren universell: Sie wirkten gleichermaßen auf kosmischer und molekularer Ebene. Phänomene verbindende Mechanismen waren verständlich (mit anderen Worten, sie ließen sich durch die Kategorien „Ursache“und „Wirkung“ausdrücken).

Infolgedessen war das von der Physik geschaffene Weltbild deterministisch, und die Aufgabe von Laborexperimenten bestand darin, diesen Determinismus zu bestätigen und die komplexe Verwirrung alltäglicher Phänomene, die dieses harmonische Bild verbarg, so weit wie möglich auszuschließen. Nur ein Unwissender oder ein Kind könnte erklären, dass der Flug von Vögeln oder Schmetterlingen nicht den Gesetzen der Schwerkraft gehorcht. Wissenschaftler waren sich der "unwissenschaftlichen" Natur solcher Aussagen durchaus bewusst, und als Wissenschaftler ging es ihnen nicht darum.

Aber 1885-1914 wurden all diese Eigenschaften der klassischen Physik in Frage gestellt. Ist Licht die kontinuierliche Bewegung einer Welle oder die Emission diskreter Teilchen (Photonen), wie Einstein nach Planck glaubte? In einigen Fällen war es bequemer, Licht als Wellen und in einigen Fällen als Teilchen zu betrachten, aber wie ist die Beziehung zwischen Wellen und Teilchen? Und was ist Licht dann wirklich? Hier ist, was der große Einstein zwanzig Jahre nach Erscheinen dieses Rätsels schrieb: „Jetzt haben wir zwei Lichttheorien, von denen jede für uns absolut notwendig ist; aber wir müssen zugeben, dass es trotz zwanzigjähriger kolossaler Arbeit theoretischer Physiker, die versuchten, diese Verbindung herzustellen, keine logische Verbindung zwischen diesen Theorien gibt “(Holton, 1970, S. 1017). Was passiert im Inneren des Atoms, das heute nicht als elementares, also unteilbares Materieteilchen (wie der griechische Name vermuten lässt), sondern als komplexes System aus noch mehr Elementarteilchen betrachtet wird?

Die erste Annahme entstand, nachdem Rutherford 1911 in Manchester den Aufbau des Atomkerns beschrieb, ein Triumph der experimentellen Vorstellungskraft, der den Grundstein für die moderne Kernphysik und die sogenannte „Grundlagenwissenschaft“legte. Diese Annahme war, dass Elektronen auf Umlaufbahnen um den Kern zirkulieren, wie Planeten um die Sonne. Aber die Untersuchung der Struktur einzelner Atome (insbesondere der Struktur des Wasserstoffs durch Niels Bohr, der die "Quanten" von Max Planck kannte) zeigte erneut die tiefsten Diskrepanzen zwischen dem Verhalten des Elektrons und - um Niels Bohr selbst zu zitieren -" ein herrlich harmonischer Satz von Konzepten, die zu Recht die klassische Theorie der Elektrodynamik genannt werden“(Holton, 1970, S. 1028). Das von Bohr vorgeschlagene Modell "funktionierte", dh es hatte ausgezeichnete Erklärungs- und Vorhersagefähigkeiten. Aber vom Standpunkt der klassischen Mechanik aus sei es "absolut irrational und absurd" und erkläre überhaupt nicht, was genau im Inneren eines Atoms passiert, wenn ein Elektron "springt" oder sich auf andere Weise von einer Umlaufbahn in eine andere bewegt. Und was passiert zwischen dem Moment, in dem ein Elektron an einer Stelle auftaucht, und dann plötzlich an einer anderen?

Und wie sollten wir nun mit der Genauigkeit wissenschaftlicher Beobachtungen umgehen, wenn sich herausstellte, dass die Beobachtung physikalischer Phänomene auf subatomarer Ebene diese Phänomene verändert? Denn je genauer wir die Position eines Teilchens auf subatomarer Ebene wissen wollen, desto unsicherer wird seine Geschwindigkeit. Hier ist eine sehr typische Aussage über die Möglichkeit jeglicher Methoden zur detaillierten Beobachtung der genauen Position eines Elektrons: „Die Eigenschaften eines Elektrons können nur gemessen werden, indem es zerstört wird“(Weisskopf, 1980, S. 37). Dieses Paradoxon wurde 1927 von dem genialen jungen deutschen Physiker Werner Heisenberg zum berühmten "Unsicherheitsprinzip" verallgemeinert und seitdem nach ihm benannt. Die Tatsache, dass das Wort „Unsicherheit“im Namen des Prinzips auftaucht, ist ziemlich bezeichnend. Der Name definierte die Bandbreite der Probleme, die Forscher des neuen wissenschaftlichen Paradigmas beunruhigten, die die übliche wissenschaftliche Gewissheit aufgegeben haben. Und es geht keineswegs darum, dass die Wissenschaftler selbst an ihren Konstruktionen gezweifelt oder zu kontroversen Ergebnissen gekommen wären. Im Gegenteil, ihre theoretischen Berechnungen wurden bei aller scheinbaren Unwahrscheinlichkeit und Seltsamkeit durch die Ergebnisse von Beobachtungen und Erfahrungen bestätigt. Insbesondere Einsteins Allgemeine Relativitätstheorie scheint 1919 ihre Bestätigung zu finden.

Eine britische Expedition, die die Sonnenfinsternis untersuchte, fand heraus, dass das Licht einer Reihe von fernen Sternen gemäß der Allgemeinen Relativitätstheorie in Richtung der Sonne abgelenkt wurde. Praktisch gesehen war die Physik der Elementarteilchen genauso vorhersehbar und natürlich wie die klassische Physik, nur auf ganz andere Weise; Auf der makroatomaren Ebene blieben die Gesetze von Newton und Galileo jedenfalls unverändert. Aber die Wissenschaftler waren besorgt, dass sie nicht verstanden, wie man alte und neue Theorien in Einklang bringt.

Zwischen 1924 und 1927 wurde dieser Dualismus, der die Physiker im ersten Viertel des 20. Jahrhunderts verfolgte, durch die genialen Konstruktionen der mathematischen Physik überwunden bzw. umgangen. Die Rede ist von der Quantenmechanik, die fast gleichzeitig in mehreren Ländern entwickelt wurde. Was sich im Inneren des Atoms befindet, ist keine Welle oder ein Teilchen, sondern ein untrennbarer "Quantenzustand", der entweder eine Welle oder ein Teilchen oder beides ist. Es macht keinen Sinn, einen Quantenzustand als kontinuierliche oder diskontinuierliche Bewegung zu betrachten, da wir niemals die gesamte Bahn eines Elektrons Schritt für Schritt verfolgen können. Die Konzepte der klassischen Physik, wie Ort im Raum, Geschwindigkeit oder Trägheit, sind außerhalb der Heisenbergschen Unschärferelation einfach nicht anwendbar. Natürlich sind auch andere Theorien aufgetaucht, die zu ziemlich vorhersehbaren Ergebnissen führten. Diese Theorien beschreiben spezielle Zustände, die durch "Wellen" oder Schwingungen von (negativ geladenen) Elektronen im begrenzten Raum eines Atoms in der Nähe eines (positiv geladenen) Kerns verursacht werden. Aufeinanderfolgende "Quantenzustände" auf engstem Raum erzeugten identifizierbare Kombinationen verschiedener Frequenzen, die, wie Schrödinger 1926 zeigte, genau berechnet werden konnten, sowie deren zugehörige Energie ("Wellenmechanik").

Dieses Modell des Verhaltens des Elektrons hatte eine bemerkenswerte Vorhersagekraft und erklärte viel. Insbesondere viele Jahre später, als Plutonium erstmals während einer Atomreaktion beim Versuch, eine Atombombe in Los Alamos zu bauen, gewonnen wurde. Die Menge an Plutonium war so gering, dass seine Eigenschaften nicht beobachtbar waren. Basierend auf der Anzahl der Elektronen im Atom dieses Elements sowie der Konfiguration von vierundneunzig Elektronen, die um den Kern schwingen, und nur aus diesen Daten sagten die Wissenschaftler jedoch (richtig) voraus, dass Plutonium ein braunes Metall mit einer Dichte ist von etwa 20 Gramm pro Kubikzentimeter, das eine gewisse elektrische und thermische Leitfähigkeit und Elastizität aufweist. Die Quantenmechanik erklärte, warum Atome (sowie Moleküle und darauf basierende höhere Gebilde) stabil bleiben bzw. warum zusätzliche Energie benötigt wird, um ihren Zustand zu ändern. Es wurde oft darauf hingewiesen, dass

sogar das Phänomen der Lebewesen – insbesondere die Struktur der DNA und die Widerstandsfähigkeit von Nukleotiden gegenüber thermischen Einflüssen bei Raumtemperatur – basiert auf grundlegenden Quanteneffekten. So blühen zum Beispiel jedes Frühjahr die gleichen Blumen gerade wegen der Stabilität der Konfiguration verschiedener Nukleotide (Weisskopf, 1980: 35–38).

Aber dieser große und überraschend fruchtbare Durchbruch im Verständnis der Naturgesetze wurde möglich durch die Verleugnung von allem, was bisher in der Wissenschaft als sicher und angemessen galt, sowie durch die erzwungene Ablehnung des Misstrauens gegenüber auf den ersten Blick absurden Vorstellungen. All dies verursachte bei Wissenschaftlern der älteren Generation Angst. Was ist zumindest das Konzept der "Antimaterie", das der Cambridge-Wissenschaftler Paul Dirac 1928 vorgeschlagen hat. Dirac entdeckte, dass seine Gleichung nur dann eine Lösung hat, wenn wir die Existenz elektronischer Zustände mit Energien kleiner als die Energie des Vakuums annehmen. Und viele Physiker haben sich begeistert der „Antimaterie“zugewandt, die aus Sicht des gesunden Menschenverstandes völlig bedeutungslos ist (Weinberg, 1977, S. 23-24). Schon der Begriff der "Antimaterie" implizierte eine bewusste Absage an die Installation, dass der Fortschritt der theoretischen Konstruktionen mit etablierten Vorstellungen von der Realität rechnen muss: Nun musste sich die Realität an mathematische Gleichungen anpassen. Dies alles zu akzeptieren erwies sich jedoch selbst für Wissenschaftler als schwierig, die die Überzeugung des großen Rutherford, dass jede gute physikalische Theorie einer Kellnerin erklärt werden kann, längst aufgegeben haben.

Selbst die großen Pioniere der neuen Wissenschaft wie Max Planck und Albert Einstein konnten sich mit dem Ende der Ära der Gewissheit nicht abfinden. Insbesondere Albert Einstein äußerte in seinem berühmten Satz "Gott würfelt nicht" Zweifel an der Wahrheit rein probabilistischer Gesetze und nicht an der deterministischen Kausalität. Es gab keine andere Grundlage für diese Behauptung als "eine innere Stimme, die mir sagte, dass die Quantenmechanik nicht die ultimative Wahrheit ist" (zitiert in Jammer 1996, S. 358). Einige Schöpfer der Quantenmechanik träumten davon, Widersprüche aufzulösen, indem man einen Bereich einem anderen unterordnete: Schrödinger hoffte, dass seine "Wellenmechanik" die "Sprünge" der Elektronen von einer Atombahn auf eine andere in einen kontinuierlichen Prozess der Energieumwandlung umwandeln und damit das Klassische bewahren würde Konzepte von Raum, Zeit und Kausalität … Die skeptischen Pioniere der neuen Wissenschaft, allen voran Planck und Einstein, atmeten erleichtert auf, vergebens. Eine neue Ära ist bereits angebrochen. Die alten Regeln galten nicht mehr.

Aber werden sich Physiker auf ständige Widersprüche einstellen können? Niels Bohr glaubte, dass sie es könnten und müssen. Angesichts der Natur der menschlichen Sprache gibt es keine Möglichkeit, die Integrität der Natur durch ein einziges System auszudrücken. Es kann nicht ein einziges, allumfassendes Modell für alles auf der Welt geben. Alles, was wir tun müssen, ist, die Realität auf unterschiedliche Weise zu begreifen und sie so zu verbinden, dass sie sich gegenseitig ergänzen und „eine erschöpfende Sammlung verschiedener Beschreibungen bilden, einschließlich eindeutig widersprüchlicher Konzepte“(Holton, 1970, S. 1018).

Dies ist die Bedeutung des von Bohr eingeführten „Prinzips der Komplementarität“, das im Wesentlichen ein metaphysisches Konzept war, das dem Konzept der „Relativität“nahe stand. Bohr entlehnte es aus Quellen, die weit von der Physik entfernt waren, und betrachtete es als universell anwendbar. Bohrs "Komplementarität" sollte nicht die Forschung in der Kernphysik fördern, sondern die Physiker in ihrer Verwirrung besänftigen. Der Reiz dieses Prinzips beruht in erster Linie auf seiner Irrationalität. Denn auch wenn wir alle (und nicht zuletzt intelligente Wissenschaftler) wissen, dass es unterschiedliche, manchmal unvereinbare oder widersprüchliche Wahrnehmungsweisen der gleichen Realität gibt, die in ihrer Gesamtheit realisiert werden müssen, haben wir immer noch keine Ahnung, wie wir sie miteinander verbinden können … … Die Wirkung der Beethoven-Sonate auf das Publikum kann aus physikalischer, physiologischer oder psychologischer Sicht analysiert werden; schließlich kann man sich die Sonate einfach anhören - aber es ist völlig unklar, in welchem Verhältnis diese Verstehensweisen zueinander stehen. Das weiß niemand.

Beliebt nach Thema