Zur Wissenschaftstheorie der Naturwissenschaften
Nach dem Durchgang durch das interdisziplinäre Datenmaterial und die darauf aufbauenden einzelwissenschaftlichen Theoriebildungen gehen wir im Folgenden noch einmal zurück zu den grundsätzlichen wissenschaftsphilosophischen Überlegungen, die wir in der Einleitung angesprochen haben. Wir tun dies in knapper Form mittels 35 Thesen. Diese stellen unsere wissenschaftsphilosophische Evaluation zur Historischen Geologie in den größeren Horizont der Wissenschaftsphilosophie der Naturwissenschaften überhaupt. In diesen großen Horizont rücken wir auch noch einmal methodologische Gesichtspunkte, welche für die Geologie und insbesondere die Historische Geologie zentral sind, einschließlich einiger Eckdaten zum Versuch einer Synthese von Erdgeschichte und Vorgeschichte. Für ausführliche monographische Bearbeitungen der Wissenschaftsphilosophie der naturwissenschaftlichen Einzeldisziplinen siehe die E-Portale und Buchpublikationen Philosophie der Physik — Philosophie der Biologie — Philosophie des Geistes. Die erkenntnistheoretischen und formalwissenschaftlichen Grundlagen behandeln die Portale Erkenntnistheorie — Philosophie der Logik — Kognitionswissenschaft. Die Hervorhebungen in Halbfett sind von mir, PN.
(1) Wissenschaftliche Daten und Theorien sind in — letztlich nur philosophisch zu begründende — Forschungsparadigmen eingebettet
Wissenschaftstheoretisch orientieren sich, wie eingangs besprochen, die Vertreter alternativer geologischer Ansätze an den gegenwärtig prominentesten Vertretern Karl R. Popper, Thomas S. Kuhn, Paul Feyerabend und deren Konzept der in der Wissenschaft grundlegenden Forschungsprogramme und Paradigmen qua regulativer Leitideen. Dieses Konzept hat den folgenden Hintergrund, den wir gerafft skizzieren.
(2) Das fundamentalistische Erkenntnisideal des Empirismus und Positivismus ist nicht realitätsgerecht
Die Wissenschaftstheorie des 19. und 20. Jh. und z.T. bis heute prägten und beherrschten zwei entgegengesetzte Rationalitätstypen. Einmal das fundamentalistische Erkenntnisideal des logischen Empirismus und weiter Teile der analytischen Philosophie und der naturwissenschaftlichen Theoretiker. Es orientiert sich an einer verengten und simplifizierten, aber in der Neuzeit einflussreichen Mathematikkonzeption. Fundament des Wissens soll hier eine Letztbegründung der Prämissen oder Axiome durch objektive sensorische Evidenz sein, aus denen deduktiv Theoreme abgeleitet werden. Nun zeigte selbst die interne Diskussion der beteiligten Denker (Carnap, Popper, Hempel, Friedman), dass die Evidenz ultimativer axiomatischer Basissätze subjektabhängig (epistemisch) und theorieabhängig ist. Eine Verlagerung der Strategie weg von der objektiven Evidenz hin zur subjektiven Evidenz der sensorischen Datenbasis inkl. der Bewusstseinsphänomene ergibt zwar analytische Wahrheiten, ist aber synthetisch, inhaltlich-axiomatisch unergiebig. Die Erweiterung schließlich der sensorischen Daten um empirische Phänomene (Beobachtungssätze) und induktive Wahrscheinlichkeiten zwecks Gewinnung solcher ultimativer inhaltlicher Prämissen scheitert dagegen wiederum an der heuristischen Vorurteilsstruktur der Induktion und an der Theoriehaltigkeit der Erfahrung und Sprache als vorgängigen inhaltlichen Voraussetzungen. Dies alles zeigte, dass der Wissensbegriff im objektivistischen Fundamentalismus zu eng gefasst wird. Wissen ist realitätsnäher als wahre Überzeugung nach intersubjektiven Standards der Rationalität zu fassen (vgl. Kutschera: Die falsche Objektivität, Berlin/New York 1993, 131—160).
(3) Das relativistische Erkenntnismodell des kritischen Rationalismus ist in zwei Hinsichten ebenfalls nicht realitätsgerecht
Der zweite Rationalitätstyp ist das antifundamentalistische relativistische Erkenntnismodell. Es verarbeitet das Scheitern des fundamentalistischen Erkenntnistyps, überzieht aber diese Einsicht in nicht mehr nachvollziehbarer Form. Eine erste Variante ist der kritische Rationalismus (Karl R. Popper), der von Beobachtungssätzen als neutralen Instanzen zur Überprüfung von Theorien ausgeht. Letztere sind kreative Hypothesen, die nicht aus Erfahrungen bestätigbar, allenfalls falsifizierbar sind. Dagegen wurde eingewandt, dass es zwar keine absolute, aber doch relative Verifizierbarkeit von Theorien gibt. Dass ferner nach der Duhem-Quine-These Hypothesen nicht durch einzelne Beobachtungen falsifizierbar sind, da statt der Hypothese auch die in den Beobachtungssätzen implizierten holistischen Hintergrundannahmen in Frage gestellt werden können. Schließlich gibt es keine theorieneutralen Beobachtungssätze zur experimentellen Überprüfung von Theorien, sondern in Beobachtungen und Experimente gehen stets theoriehaltige und linguistische Annahmen an, wie gerade Popper immer wieder selbst betonte. [Photo rechts: Pierre Duhem, 1861—1916, der große alte Mann der Wissenschaftstheorie der Naturwissenschaften]
(4) Das relativistische Erkenntnismodell in der Theorie inkommunsurabler Paradigmen ist gleichfalls nicht realitätsgerecht
Eine zweite Variante ist die vom späten Wittgenstein (Philosophische Untersuchungen) vertretene Theorie von Erkenntnis als inkommensurabler Sprachspiele, verstanden als Lebensformen und Sprachkontexte. Begründungen lassen sich — so Wittgenstein — nur innerhalb eines Sprachspiels geben, dessen jeweilige fundamentale Annahmen selbst nicht begründbar sind. Eine Ausarbeitung dieses Ansatzes liegt in der bekannten Studie von Kuhn vor: Die Struktur wissenschaftlicher Revolutionen, Frankfurt 1991 [1962]. Zentrale These ist die Behauptung der Existenz inkommensurabler Paradigmen in Lebenswelt und v.a. Wissenschaften, welche das jeweilige Begriffssystem, die verwendete Sprache, die Hintergrundannahmen, Methoden, Ziele, Rationalitätskriterien umfassen. Es gibt keine paradigmenneutralen Erfahrungen und Rationalitätsstandards. In letzter Instanz also relativistisches und irrationales Ausgeliefertsein an jeweilige Vorurteile.
(5) Das relativistische Erkenntnismodell übersieht paradigmaexterne Tatsachen und stückweisen Paradigmenwandel
Dagegen wurde eingewandt, dass gerade Kuhns zweite zentrale These von revolutionären Paradigmenwechseln bei Nicht-mehr-Bewährung alter Paradigmen paradigmaexterne Bewährungskriterien voraussetzt. Dass also Theoriehaltigkeit von Erfahrungen nicht radikale Theorieabhängigkeit von Erfahrung sein kann. Entweder gibt es auch paradigmaexterne Tatsachen oder völlige Immunität gegenüber Erfahrung, d.h. nur und ausschließlich Deutung. Kuhns These vom stets revolutionären Paradimenwechsel trifft auch kaum die Forschungswirklichkeit, die genausosehr vom stückweisen Wandel, von theoretischer Modifikation und globaler Integration in neue Paradigmen geprägt ist (etwa klassische Physik als Teilmenge des Paradigmas der modernen Physik). Ähnliches gilt von der geisteswissenschaftlichen Forschungswirklichkeit, wo Gadamer (Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübingen 1990 [1960]) eine zu Kuhn (1991 [1962]) analoge und einflussreiche Theorie vorlegte. Auch die These der radikalen Inkommensurabilität von Paradigmen wurde dahingehend kritisiert, dass theoretisch (intensional) unverträgliche Paradigmen dennoch empirisch (extensional) verträgliche sein können, also nur unterschiedliche Erklärungsebenen über demselben Gegenstandsbereich (vgl. Kutschera a.a.O. 1993, 131—160).
(6) Immanenter Realismus als leistungsfähiges alternatives Erklärungsmodell
Ein leistungsfähiges alternatives Erklärungsmodell zum fundamentalistischen Objektivismus und relativistischen Subjektivismus ist der immanente Realismus. Kutschera (a.a.O. 1993, 161—200 ) entwickelt dieses Modell aus der gegenwärtigen Diskussionslage (Dummett, Davidson, Putnam) als moderne Rekonstruktion der kantischen Theorie. Ausgangsthese ist: Es gibt keinen externen Standpunkt. Alle Wahrnehmung, Kognition und Praxis ist die eines Subjekts und seiner Erfahrungs- und Denkformen, also anthropomorph. Erkenntnistheorie ist nur als immanente und reflexive Deutung des faktischen Denkens und der faktischen Erfahrung möglich. Dazu gehören — wie bei Kant entwickelt — invariante Strukturen bzw. genetische und kulturelle Paradigmen. Es ist von der Intentionalität als zentraler Einsicht in die Funktionsweise menschlicher Kognition auszugehen: Ich — erfahre — die Natur. Intentionalität beinhaltet also eine Relation zwischen (1) der Basisrealität der subjektiven Erfahrung (Ich) mit mentalen Empfindungen, Zuständen und empirischen Beobachtungen: Erfahrungsrealismus; (2) der Realität der objektiven Natur als Erscheinung, d.h. als Gegenstand der Erfahrung (Universum von inhaltlichen Sachverhalten, Eigenschaften, Relationen): physikalischer Realismus; (3) der Realität der objektiven Natur als Sein in sich, d.h. als offen transzendenter Erfahrungshorizont: ontologischer Realismus. Ähnlich wie bei Kant wird auch in dieser Rekonstruktion eine kombinierte korrespondenztheoretische und kohärenztheoretische Semantik angesetzt, die von der Natur als gesetzmäßiger Ordnung ausgeht, wobei diese Ordnung auf subjektgestützten Prozessen der Wahrnehmungskonstanz und Gen-Identität von Momentanobjekten aufbaut. Kutscheras Rekonstruktion definiert ähnlich wie Kant (und Piaget) Natur als Regelkreis zwischen Kognition und Realität, der sowohl und stärker eine kreative, kulturelle Leistung ist als auch ein biologisches Produkt mit einem zugeordneten semantischen Realismus im ontologischen Projektionsrahmen unserer Sprache und Grammatik.
(7) Irreduzible Theoriehaltigkeit der Wahrnehmung und Erfahrung
Jenseits der Kontroversen besteht jedoch, wie aus der Nachzeichnung der Debatten ablesbar, in der modernen Wissenschaftsheorie sachliche Übereinstimmung hinsichtlich der irreduziblen Theoriehaltigkeit oder -beladenheit der Wahrnehmung und Erfahrung. Klassisch hierzu die Argumentation Poppers in Logik der Forschung (1989, 34—41 und überhaupt Kap. 3 'Theorien' (31—46) und der Anhang *X: 'Universalien, Dispositionen und Naturnotwendigkeit', 376—396) betreffs der methodischen Undurchführbarkeit,
„Universalien mit Hilfe von Individualien zu definieren. Man hat das oft übersehen, meinte, es sei möglich, durch 'Abstraktion' von den Individualien zu Universalien aufzusteigen. Diese Ansicht hat viel Verwandtes mit der Induktionslogik, mit dem Aufsteigen von besonderen Sätzen zu allgemeinen Sätzen. Beide Verfahren sind logisch undurchführbar.“ (Popper 1989, 37)
Und: „Alle ... Theorien beschreiben das, was wir als strukturelle Eigenschaften der Welt bezeichnen können, und sie überschreiten stets den Bereich möglicher Erfahrung.“ – Sie können nicht induktiv abgeleitet werden, „denn die Beschreibung und Überprüfung jedes einzelnen Falles setzt ihrerseits schon Strukturtheorien voraus.“ (Popper 1989, 376—377) Zu Ort und Leistung solcher materialanalytischer Begriffe und Axiome in den Realwissenschaften vgl. I. M. Bochenski: Die zeitgenössischen Denkmethoden, 10. Aufl. Tübingen/Basel, 1993, 100—110. Von Seiten der empirischen Forschungspraxis bieten J. Bortz/N. Döring: Forschungsmethoden und Evaluation, 2. Aufl. Berlin/Heidelberg/New York et al., 1995, v.a. 5—33, 327—367, eine wissenschaftstheoretisch reflektierte Veranschaulichung. Die Kontroverse Falsifizierbarkeit (Popper) versus Verifizierbarkeit (Carnap) ist hier nebensächlich: vgl. Kuhn a.a.O. 1991, 155—170, v.a. 157—158 und Stegmüller: Das Problem der Induktion: Humes Herausforderung und moderne Antworten. Der sogenannte Zirkel des Verstehens, Darmstadt 1991, 1—40.
(8) Komplementarität von datengesteuerter und begriffsgeleiteter Informationsverarbeitung
Die begriffsanalytische Axiomatik bzw. das paradigmatische Begriffssystem ist damit notwendig und konstitutiv für mögliche objektive Erfahrung und wissenschaftliche Gegenstände. Und es ist auch sachlogisch und ursprünglich mit der extensionalistischen, wahrheitswertfunktionalen Beobachtungssprache verbunden. Es handelt sich nicht nur — wie bei Carnap — um ein Gerüst oder einen Überbau oder ein theoretisches Netzwerk, das pragmatisch und konventionalistisch festgelegt wird. Und die Zuordnung des Überbaus qua formaler axiomatischer Kalkül zur Beobachtungsebene geschieht nicht nur durch die nachträgliche Interpretation der theoretischen Begriffe mit Hilfe von Zuordnungsregeln (Z-Regeln):
„Das Problematische liegt darin, daß er zwei Sprachen als zwei gesonderte Schichten ansetzt, eine, die sich auf Beobachtung, und eine andere, die sich auf theoretische Begriffe bezieht. Damit ist die lebendige Dialektik der Wissenschaft, in der Grundbegriffe und Beobachtungen sich gegenseitig bedingen, aufgehoben oder zum mindesten eingeschränkt.“ (W. Schulz: Philosophie in der veränderten Welt, 6. Aufl. Stuttgart 2001, 63)
Michael Friedman sieht daher bei Carnap — trotz der Kritik der historischen Schule der Wissenschaftstheorie (Kuhn, Feyerabend) an Carnaps Zweistufenkonzeption — eine Parallele zu Kuhns These konventionalistischer, wechselnder, inkommensurabler Paradigmen in Lebenswelt und Wissenschaft, welche das jeweilige Begriffssystem und die verwendete Sprache sowie die Hintergrundannahmen, Methoden, Ziele, Ideale, Rationalitätskriterien umfassen (Friedman: Dynamics of Reason. The 1999 Kant Lectures at Stanford University, Stanford 2001, 25—46; vgl. Kuhn a.a.O. 1991 und H. Andreas: Carnaps Wissenschaftslogik: eine Untersuchung zur Zweistufenkonzeption, Paderborn 2007). Das jeweilige Paradigma ist ein theoretischer Überbau, der nicht sachlich und ursprünglich mit der Empirie und Beobachtungssprache verschmolzen ist. Hier sind Karl Popper, Donald Davidson und Walter Schulz die Kritiker Carnaps geworden:
„Die Festsetzung der Basissätze erfolgt anläßlich einer Anwendung der Theorie und ist ein Teil dieser Anwendung“ (Popper 1989, 71). Und: „Es gibt keine reinen Beobachtungssätze [...] Sogar in einer sogenannten 'phänomenalen Sprache', die etwa 'jetzt ist hier rot' zuläßt, würde das Wort 'jetzt' eine (rudimentäre) Theorie der Zeit implizieren; das Wort 'hier' eine (rudimentäre) Theorie des Raumes; und das Wort 'rot' eine Theorie der Farben.“ (Popper 1989, 76).
Bei Davidson findet sich diese Kritik ursprünglich und besonders in der Gegenargumentation gegen Quines sog. Unbestimmtheitsthese. Davidson macht plausibel, dass die Bedeutung oder Interpretation zur proximalen Reizsituation nicht mehr oder minder willkürlich oder konventionalistisch hinzukommt, sondern dass die aus distalem Reiz (Gegenstand), kognitivem Subjekt und intersubjektiver sprachlicher Reaktion erwachsende intersubjektive Realität und Ontologie die Bedeutung generiert und konstituiert. Auch für empirische Bedeutungen und Propositionen der Beobachtungssprache sind somit hochstufige Schichten der Theoriesprache notwendig und wesentlich:
„Auch wenn es möglich und sinnvoll ist, die Terme der ... Beobachtungssprache von den theoretischen Grundbestimmungen zu unterscheiden, so [bestimmen] beide Sphären ... sich dem Gang der sich wandelnden Forschung gemäß gegenseitig. Carnap sucht jedoch die Theoretische Sprache 'für sich zu setzen'“ (Schulz 2001, 64)
Auch in Wahrnehmungspsychologie und Kognitionsforschung meint Theoriehaltigkeit der Erfahrung und die erfahrungskonstitutive Leistung der Begriffe die durchgängige Komplementarität von datengesteuerter Informationsverarbeitung (bottom-up-processing) und begriffsgeleiteter Informationsverarbeitung (top-down-processing). Dies heißt, dass die Wahrnehmungsorganisation und empirische Objektidentifizierung nicht ohne — auch hochstufige — „meaning“, „concepts“ und „ideational content“ möglich ist: „It is by no means clear that a bottom-up approach can provide an adequate account of the role of meaning in perception“ (Eysenck / Keane: Cognitive Psychology, Hove / New York 1992 [7. Aufl. 2015]; vgl. Churchland: A Neurocomputational Perspective. The Nature of Mind and the Structure of Science, Cambridge Mass. / London 1992, 281—295).
(9) Vorbewusste und apriorische Intelligenz der Wahrnehmung als Brücke über die Kluft der Unterbestimmtheit zwischen Empfindung, Beobachtung, Realität und Interpretation, Bedeutung, Theorie
Die These der Theoriehaltigkeit der Erfahrung besagt m.a.W.: In jeder kognitiven Aktivität kooperieren immer und überall Reizebene und theoretisch-linguistische Ebene; d.h. aber auch: sie kalibrieren, kontrollieren und korrigieren sich potenziell immer und überall wechselseitig:
„Fast jede unserer Aussagen transzendiert die Erfahrung [...] Denn selbst gewöhnliche singuläre Sätze sind stets Interpretation der 'Tatsachen' im Lichte von Theorien. (Und das gilt sogar für die jeweilige 'Tatsache'. Sie enthält Universalien, und wo Universalien gelten, liegt immer gesetzmäßiges Verhalten vor.)“ (Popper 1989, 377–378) — „Beobachtung ist stets Beobachtung im Licht von Theorien; aber das induktivistische Vorurteil verleitet viele dazu, zu glauben, es könne eine theorienfreie und rein beschreibende Sprache ('phenomenal language') geben, die von einer 'theoretischen Sprache' unterscheidbar wäre“ (Popper 1989, 31).
Darüber hinaus ist eine vermittelnde und Kontinuität garantierende Brücke über die Kluft der Unterbestimmtheit zwischen Empfindung, Beobachtung, Realität und Interpretation, Bedeutung, Theorie einmal die vorbewusste, objektive und intersubjektive Intelligenz der Wahrnehmung (vgl. z. B. Rock: Wahrnehmung. Vom visuellen Reiz zum Sehen und Erkennen, Heidelberg 1985, 187, 193, 198, und Churchland: A Neurocomputational Perspective. The Nature of Mind and the Structure of Science, Cambridge Mass. / London 1992, 255—279). In den Vordergrund geschoben hat sich hier die Frage nach der kognitiven Penetrabilität und Theorieabhängigkeit der mittleren Ebene der Wahrnehmungsorganisation (Fodor: impenetrability thesis bzw. theorieneutrale Wahrnehmungs- verarbeitung in Form autonomer Module vs. Theorieabhängigkeit bzw. -penetrabilität auch der sensorischen Wahrnehmungsorganisation: Quine, Churchland). Jenseits solcher Kontroversen ist jedoch festzuhalten: Die holistische [das meint nicht: ausschließliche und totale] Theorieabhängigkeit und Plastizität auch des Wahrnehmungsvokabulars und der Beobachtungssätze ist eine Errungenschaft der nachbehavioristischen Psychologie und nachpositivistischen Wissenschaftstheorie. Zum anderen sind eine vermittelnde und Kontinuität garantierende Brücke die apriorischen, genetischen Strukturen und Kategorien der Wissensrepräsentation und -verarbeitung, also etwa die Dimension der transzendentalen Ästhetik und Logik in der kantischen Theorie (vgl. Searle: The Rediscovery of Mind, Cambridge, Mass 1992, v.a. 175—195; Gärdenfors: Conceptual Spaces. The Geometry of Thought, Cambridge, Mass 2000; Pinker: The Blank Slate. The Modern Denial of Human Nature, New York 2002, v.a. 75—83, 210—221; Carruthers / Laurence / Stich (eds.): The Innate Mind: Structure and Contents, Oxford 2005 bieten hierzu eine allseitige Aufarbeitung): „Die Einsicht, daß theoretische Begriffe weithin kategorialen Charakter haben, das heißt Möglichkeit der Erfahrung darstellen und daher selbst nicht erfahrbar sind, wird [von Carnap] nicht genügend herausgestellt.“ (Schulz 2001, 66). Im Bereich der Wissenschaftstheorie hat auf diese Brücke Popper sehr drastisch aufmerksam gemacht: „Ich behaupte ..., daß alles, was wir wissen, genetisch a priori ist. A posteriori ist nur die Auslese von dem, was wir a priori selbst erfunden haben“ durch „die Fähigkeit ..., unsere Sinneseindrücke zu ordnen und zu integrieren [...] Das ist äquivalent mit dem Kantischen apriorischen Wissen“ — „Ich behaupte, daß unser Wissen zu 99 Prozent, oder sagen wir zu 99, 99 Prozent, biologisch angeboren ist“ (Popper: Alles Leben ist Problemlösen, Hamburg 1994, 128, 141).
(10) Schutzmantel von Hilfshypothesen zur Vermeidung vorschneller Falsifizierung veralteter oder unausgereifter Programme
Der Wissenschaftstheoretiker Imre Lakatos [1922—1977, Photo links] hat dieses Konzept der theoretischen Paradigmen verfeinert, insofern er eine Synthese speziell von Popper (klassische Wissenschaftstheorie) und Kuhn (historische Wissenschaftstheorie) entwickelte, die den tatsächlichen Wissenschaftsbetrieb realitätsdicht beschreiben will. Nach ihm weisen diese Paradigmen oder wie er sie bevorzugt nennt: Theoriensysteme und Methodenregeln, einen harten Kern auf, um den sich ein Schutzmantel von Hilfshypothesen zur Vermeidung vorschneller Falsifizierung veralteter, degenerierter oder neuer, unausgereifter Programme legt. Dieser Schutzmantel gibt der Forschung die nötige Atempause zur Weiterentwicklung der Paradigmen trotz zeitweise stagnierender oder degenerativer Programmentwicklung. Dadurch wurde oft eine Kette von Niederlagen verwandelt in eine ruhmreiche Erfolgsgeschichte.
(11) Beispiel: Heliozentrisches System
Man verweist z.B. darauf, dass Kepler an sich einen Widerruf des heliozentrischen Systems wegen dessen damaliger Unvollkommenheiten hätte leisten müssen, wenn die Kriterien des popperschen Falsifikationismus konsequent und ohne Aufschub angewandt worden wären.
(12) Beispiel: Geozentrisches System
Aber auch das heliozentrische Paradigma der Astronomie gilt heute physikalisch als überholt und das — drei Jahrhunderte als Prototyp einer vorwissenschaftlichen, mythischen Weltanschauung geltende — geozentrische Konzept oder Forschungsprogramm ist wieder als gleichberechtigt rehabilitiert und als legitim anerkannt. Die grundsätzliche physikalische Möglichkeit und Begründungsfähigkeit des geozentrischen Weltbildes wurde und wird von maßgeblichen Autoritäten der modernen Physik ohne weiteres zugegeben. Max Born (1882—1970, einer der Väter der modernen Physik in Zusammenarbeit mit Planck, Einstein und Heisenberg, Nobelpreis Physik 1954) sagt dazu in Einstein's Theory of Relativity, 7. Aufl. Berlin / Heidelberg / Oxford 2003, 296 [1. Aufl. 1920]): “Damit ist die Rückkehr zu Ptolemaios‘ Standpunkt der ‚ruhenden Erde‘ ins Belieben gestellt [...] Daher haben von Einsteins Standpunkt gesehen Ptolemaios und Kopernikus gleiches Recht.“ Albert Einstein hat dies auch selbst bekräftigt, in The Evolution of Physics, Cambridge 1938, 248: „Either CS [= coordinate system] could be used with equal justification.“ / „Beide Kordinatensysteme können mit gleicher Berechtigung verwendet werden“. Ähnlich Fred Hoyle, Stephen Hawking und sein südafrikanischer Forschungskollege George Ellis (*1939), der ins Relief hebt, dass die Entscheidung für oder gegen das geozentrische Modell nur auf „philosophischer Basis“ und „unter Anwendung philosophischer Kriterien“ getroffen und begründet werden kann. [Foto rechts: Born (rechts) mit dem Physikerkollegen Friedrich Hund 1966 in Göttingen]
(13) Beipiel: Geologische Katastrophentheorie
Ein anderes Beispiel ist George Cuviers geologische Katastrophentheorie, welche seit 1980 nach 150 Jahren "Falsifizierung" eine lange nicht mehr erwartete Auferstehung feiert (M. Stephan: Sintflut und Geologie. Schritte zu einer biblisch-urgeschichtlichen Geologie, Holzgerlingen 32010, 245—247).
(14) Beispiel: Theorie der Plattentektonik
Das Gesagte lässt sich näherhin und in größtmöglichster Deutlichkeit in der Historischen Geologie selbst aufzeigen, und zwar an der gegenwärtig die Geologie beherrschenden Theorie der Plattentektonik. Wir rücken die diesbezügliche Passage aus den Vorbemerkungen hier noch einmal ein:
„Während man früher glaubte, daß die Kontinente durch die umgebende ozeanische Kruste an Ort und Stelle festgehalten wenden, besagt die Theorie der Plattentektonik, daß die Kontinente über die Erdoberfläche driften, da sie Bestandteile mobiler Platten darstellen [...] Als die Vorstellung der Kontinentaldrift Anfang des zwanzigsten Jahrhunderts zum ersten Mal geäußert wurde, erregte sie beträchtliches Aufsehen, in erster Linie als Folge der Beweisführung zweier Wissenschaftler - des Deutschen Alfred Wegener [Foto links] und des Südafrikaners Alexander du Toit.“ (S. M. Stanley: Historische Geologie, Heidelberg / Berlin / Oxford, 1994, 163).
Dennoch verschwand die Theorie Jahrzehnte aus dem geologischen Diskurs und wurde geächtet:
„Viele Jahre lang wurde der Idee, daß sich Kontinente horizontal über die Erdoberfläche bewegen, einer Vorstellung, die als Kontinentaldrift bezeichnet wurde, in Europa und Nordamerika die Anerkennung versagt. Im Jahre 1944 ging ein führender Geologe so weit zu behaupten, daß die Idee der Kontinentaldrift vorbehaltlos aufgegeben werden sollte. weil ‚jede v. Diskussion darüber nur das Schrifttum vermehrt und den Verstand der Studenten verrwirrt‘.‘‘ (1994, 163).
Erst in den 1960er Jahren änderte sich die Situation und zwar grundstürzend: „Das Aufkommen der Theorie der Plattentektonik in den sechziger Jahren löste in den Geowissenschaften eine wahre Revolution aus.“ (1994, 163). Die Theorie wurde schnell vom Tabuthema zum umfassenden Erklärungsmodell der Geologie, wobei „im Jahre 1962 ... die Veröffentlichung des amerikanischen Geologen Harry H. Hess mit dem Titel „History of Ocean Basins“ (Geschichte der Meeresbecken) ... den Wendepunkt“ brachte (175):
„Hess griff dann ein geophysikalisches Konzept wieder auf, das bereits früher von einer Reihe von Wissenschaftlern diskutiert worden war - nämlich daß Material innerhalb des Erdmantels durch großräumige thermische Konvektion in Bewegung ist. Das hohen Drücken und Temperaturen ausgesetzte Material des Mantels muß in der Art einer sehr zähen Flüssigkeit fließen. Wie wir gesehen haben, wird der Erdmantel durch den Zerfall der darin enthaltenen radioaktiven Isotopen aufgeheizt, und er wird oben abgekühlt. Folglich besitzt der obere Teil des Mantels, da er kühler ist, eine höhere Dichte als der tiefere Teil und sinkt deshalb nach unten ab, während der untere Teil eher aufsteigt. In einem mächtigen Flüssigkeitskörper führt dies zu Konvektionsbewegungen, denselben kreisförmigen Bewegungen, die von der Wärme der Sonne in der Erdatmosphäre erzeugt werden. Hess vermutete, daß der flüssigkeitsähnliche Erdmantel in einzelne Konvektionszellen unterteilt ist, deren weniger dichtes Material beim Aufstieg und der nachfolgenden Abkühlung die ozeanische Kruste bildet. Diese wandert dann nach der Seite weg und wird so zur Flanke eines mittelozeanischen Rückens“ (178)
Dies ist die berühmte These der Seebodenspreizung (‚Seafloor Spreading‘). Dazu der Autor des gegenwärtigen Standardwerkes zur Historischen Geologie: „Nur wenige bedeutende wissenschaftliche Ideen sind wirklich vollkommen neu, und so war es auch mit der Theorie von Hess über das ‚Seafloor Spreading‘.“ Dass selbst hier Zufall oder Glück im Spiel waren, zeigt „das Mißgeschick eines kanadischen Geologen namens L. W. Morley. Morley entwickelte dasselbe Modell [...] aber das Manuskript, in dem er sein Modell darlegte, wurde von den beiden Zeitschriften, bei denen er es 1963 zur Veröffentlichung eingereicht hat, abgelehnt. Ein Rezensent des Manuskripts kommentierte zynisch, daß ‚solche Spekulationen höchstens ein interessantes Gesprächsthema auf Cocktailparties wären‘. [...] Radikal neue Ideen setzen sich eben in der Wissenschaft nicht gerade leicht durch.“ (1994, 182—183)
(15) Nichts Neues unter der Sonne
Eine realitätsdichte und kohärente Schlussfolgerung hieraus kann nur sein: „Die Wissenschaftsgeschichte ... lehrt uns, dass neue Theorien selten so neu sind, dass sie uns nicht auch in der Vergangenheit in anderem Kleide begegneten, und alte selten so veraltet, dass sie nicht eine Renaissance in neuem Kleide erfahren könnten.“ (Hölder, H.: Kurze Geschichte der Geologie und Paläontologie, Berlin/Heidelberg/ New York 1989, VI; zitiert in M. Stephan: Der Mensch und die moderne Zeittafel, Holzgerlingen 2002, 13)
(16) Eine pluralistische Methodologie sollte traditionelle Weltbilder, Kosmologien und Methoden Ernst nehmen
Man ruft auch Paul Feyerabends Forderung nach einer pluralistischen Methodologie in Erinnerung, welche methodisch alle Ideen der Geistesgeschichte, auch die Inhalte der Mythen, sowie die traditionellen Weltbilder und Kosmologien in Dichtung und Religion wie das der Genesis einschließt. Diese werden oft fruchtbar für modernste Ideen.
(17) Wechselnde und neue Forschungsparadigmen sind nur durch eine philosophische Metatheorie in den Griff zu bekommen
Schließlich argumentiert man dafür, dass die Anwendung der kreativen Vernunft für neue Deutungen und Theorien genauso wichtig ist wie methodisches Denken in einem vorgegebenem Rahmen (Stephan a.a.O. 2010, 247—248). Wie in den Vorbemerkungen ausgeführt, steht hierfür in der gegenwärtigen Diskussion besonders der Stanforder Wissenschaftstheoretiker Michael Friedman Pate. Hier noch einmal zur Vervollständigung des Gesamtbildes das dort Gesagte: Friedman versteht seinen Arbeitsschwerpunkt als notwendige Ergänzung zu Thomas Kuhn, der in seinen Analysen die Geschichte der philosophischen Metatheorien und ihrer Paradigmen ausgeklammert habe. Dies will Friedman, der selbst als Schüler Hempels in der Wirkungsgeschichte des Wiener Kreises steht, leisten. Aufgabe der Philosophie ist, so Friedman, die Verkörperung und Realisierung einer dritten Ebene und zweiten Metaebene über der normalen Wissenschaft und dem axiomatischen Paradigma. Sie ist allein kompetent, bei sich anbahnenden revolutionären Paradigmenwechseln als klärende, orientierende und leitende Heuristik zu fungieren, den neuen intellektuellen Möglichkeitsraum zu bewerten und so eine verantwortliche Wahl zu ermöglichen. Es ist daher irrig, die Philosophie auf die anderen Stufen reduzieren zu wollen, die Psychologie (Helmholtz), Mathematik (Carnap), Psychologie und Mathematik (Quine) (Friedman: Dynamics of Reason. The 1999 Kant Lectures at Stanford University, Stanford, 2001, 44). Friedman illustriert dieses dreistufige Modell u.E. sehr überzeugend am Denkweg Newtons. Die philosophische Metaebene war dort ihrerseits Voraussetzung für das konstitutive apriorische Paradigma, das seinerseits notwendige, apriorische logisch-mathematische Voraussetzung und Bedingung der Möglichkeit für die dritte Ebene der eigentlichen empirischen Gesetze war und ist (a.a.O. 2001, 25—46).
(18) Wissenschaft als lebensweltliches und soziologisches Phänomen ist charakterisiert durch Konflikt, Erkenntnisunterdrückung und Weltanschauungskriege
Ferner haben wir in der Einleitung deutlich gemacht, dass ein zeitloses Phänomen in der Geschichte der Wissenschaft die Erkenntnisunterdrückung bis zum Glaubenskrieg ist. Neue Erkenntnisse bedrohen etablierte wirtschaftliche, politische Institutionen, Interessen, Vorurteilsstrukturen, starr gewordene Lehrmeinungen und Glaubenssysteme. Sie werden regelmäßig ignoriert und bis zur völligen Vernichtung unterdrückt. Alte Systeme lassen ihre ganze Macht spielen. Eine Neuordnung erfolgt nur nach erbittertem Kampf, nicht freiwillig. Dazu auch noch einmal das bekannte Wort Max Plancks: „Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, dass ihre Gegner überzeugt werden und sich als belehrt erklären, sondern dadurch, dass die Gegner allmählich aussterben und dass die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist.“ (Wissenschaftliche Selbstbiographie, Leipzig 1948)
(19) Naturgesetze sind empirische Invarianzen und statistische Gesetze
In der Sache weisen nun die neuen geologischen Alternativtheorien zunächst darauf hin, dass Naturgesetz heute wissenschaftstheoretisch nicht Kausalität, Notwendigkeit, Vorhersagbarkeit bedeutet, sondern statistische Regelmäßigkeit (Stephan 2010, 216). Dass somit ganz grundsätzlich ein empirischer wie theoretischer Freiheits- und Spielraum vorliegt, der z. B. einen dogmatischen deterministischen Naturalismus unmöglich macht. Die angegebene Beschreibung von Naturgesetz in der gegenwärtigen Wissenschaftspraxis ist zwar etwas vereinfacht und holzschnittartig, aber im Kern nicht falsch. Paul Churchland [Foto rechts] fasst die gegenwärtige Sicht so zusammen: Naturgesetze sind nicht analytisch notwendige, absolut apriorische nomische Universalien in allen möglichen Welten (in traditioneller Fachterminologie: Possibilia) (A Neurocomputational Perspective. The Nature of Mind and the Structure of Science, Cambridge, Mass./London, Engl. 1992, 292—293). Naturgesetze sind epistemisch analysierbar als raum-zeitlich unbeschränkte, kontrafaktisch gültige universelle Konditionale mit empirischem Erklärungswert (1992, 288). Solche Naturgesetze als empirische Invarianzen und Gesetze, seien es natürliche Arten (natural kinds) oder Naturgesetze i.e.S. (natural laws) sind ontologisch rekonstruierbar als erstens aposteriorische, kontingente Universalien: basale Elemente und basale Gesetze (Masse, Länge, Dauer, Ladung, Farbe [hier als Term der Elementarteilchenphysik], Energie, Impuls ...) unter allen physikalischen Randbedingungen. Alles darüber Hinausgehende sind ontologisch — zweitens — praktische Arten und Gesetze. Diese entstehen aus der Verbindung der basalen Eigenschaften und Gesetze mit definierten empirischen Randbedingungen auf der subtomaren, atomaren, molekularen usw. Ebene, die eine bestimmte Geometrie als hypothetischen Möglichkeitsraum erzeugen (1992, 289—292).
(20) Die transzendental-idealistische Kopenhagener Interpretation der Quantentheorie kennt keine zeitlich durchgängig existierende objektivierbare Welt
Hans-Peter Dürr, der engste Heisenbergschüler und dessen (und Einsteins) Nachfolger als Direktor des Max-Planck-Instituts für Physik und Astrophysik in München (bis 1997, + 2014), war der bekannteste Vordenker einer interdisziplinären, philosophischen und ethischen Einordnung der Physik. Seine Aussage zum Thema: „Aus quantenmechanischer Sicht gibt es ... keine zeitlich durchgängig existierende objektivierbare Welt, sondern diese Welt ereignet sich gewissermaßen in jedem Augenblick neu [...] Die Gegenwart bezeichnet den Zeitpunkt, wo Möglichkeit zur Faktizität, zur Tatsächlichkeit gerinnt [...] Dies hängt zusammen mit dem Akt einer Messung, die, wie man sich ausdrückt, zu einem Kollaps des Wahrscheinlichkeitswellenpakets [...] führt“ (Dürr: Das Netz des Physikers, München 2000, 39—40, 43). Dies ist die in der Physikerkommunität vorherrschende Kopenhagener Interpretation der Quantentheorie. Ergänzend ist Folgendes festzuhalten: „Diese Kipp-Prozesse, dieses Ingangsetzen von irreversiblen Prozessen mit makroskopischen Endstrukturen, passiert jedoch [...] auch ohne unser Zutun [...] Trotz Quantenmechanik fahren wir Auto oder fliegen wir in einem Flugzeug in der festen und ... berechtigten Überzeugung, daß diese Transportmittel in ihrem Bewegungsverhalten ausreichend determiniert sind und deshalb auch durch geeignete Manipulationen des Fahrers oder Piloten beherrscht werden können. Dieses deterministische Verhalten der Materie ergibt sich nämlich für die meisten Objekte unseres Alltags trotz quantenmechanischer Grundstruktur als extrem gute Näherung. Für diese im Vergleich zu Atomdimensionen riesengroßen Systeme mittelt sich nämlich das unbestimmte Verhalten der einzelnen Atome, aufgrund ihrer großen Anzahl, fast gänzlich aus. Es ist hier etwa so, als ob wir jeweils gleichzeitig mit etwa 1024 Würfeln würfeln würden. Nach der Wahrscheinlichkeitstheorie würden in diesem Fall Abweichungen vom exakten gleichen Auftreten aller Augenzahlen nur etwa (1 durch Wurzel aus 1024) x 100 % ... also ein zehnmilliardstel % betragen.“ (Das Netz des Physikers, München 2000, 43—45)
(21) Es gibt prinzipielle Grenzen des naturwissenschaftlichen Zugangs zur Wirklichkeit
Weiter Dürr: "Richtig erscheint mir, daß viele Menschen erkennen, daß die durch naturwissenschaftliches Denken erfaßbare, oder allgemeiner: die durch wissenschaftliche Methoden beschreibbare Wirklichkeit nicht die eigentliche, die ganze Wirklichkeit darstellt und darstellen kann, ja daß durch Wissenschaft nicht einmal der für uns Menschen 'wesentliche Teil' dieser eigentlichen Wirklichkeit beleuchtet wird, und daß es deshalb in unserem Zeitalter der Wissenschafts- und Technikeuphorie dringend nötig ist, wieder auf die prinzipiellen Grenzen der Naturwissenschaft und der aus ihren Erkenntnissen entwickelten Technik, hinzuweisen." (Das Netz des Physikers, München 2000, 26)
(22) Die Wirklichkeit ist größer und anders als ihr reduziertes naturwissenschaftliches Abbild
„Wirklichkeit und ihr naturwissenschaftliches Abbild stehen sich deshalb einander gegenüber wie ein Gegenstand zu seiner Zeichnung oder bestenfalls seiner Photographie [...] Die quantitative Beschreibung, d.h. die Möglichkeit, Aussagen in Zahlen zu fassen [...] und ganz allgemein die Möglichkeit, bei der Formulierung von Aussagen und Verknüpfungen die Mathematik zu verwenden, hängt genau mit der Möglichkeit zusammen, von den Inhalten der Dinge, also dem 'was', ganz abzusehen und sich allein auf ... das 'wie' zu konzentrieren [...] Insbesondere ist das durch dieses Denken erzeugte Abbild der Wirklichkeit wertfrei und nicht sinnbehaftet, da es bei seiner Konstruktion aus dem ganzheitlichen Sinnzusammenhang der eigentlichen Wirklichkeit herausgelöst wurde.“ (ebd., 32—35, 48)
(23) Der Zugang zur Gesamtwirklichkeit geschieht durch ganzheitliche Intelligenz und Intuition
Neben und über dem analytischen rationalen Denken ist die vorrationale ganzheitliche (holistische) Intuition, die existentielle und wahrnehmungsmäßige Zugehörigkeit zur Gesamtrealität wichtig: „Wenn wir weiter feststellen, daß die Welt immer ein Ganzes ist, das gar keine Aufteilung erlaubt, dann fragen wir: Wo ist unser Zugang zu diesem Ganzen? Und dann entdecken wir, daß die Erfahrung des Geistigen uns diesen Zugang eröffnet [...] Das Geistige erleben wir nie als etwas Abgeschlossenes.“ – „Im Ganzen des Weltalls [gibt es] eine Intelligenz, von der wir keine Vorstellung haben. [...] Ich kann auch eine Gewißheit haben von etwas, was ich nicht begreifen kann. Unter Intelligenz verstehe ich etwas Offenes, wo die Naturgesetzlichkeit nicht greift.“ (Dürr, H. P.: Gespräch: Das Geistige hat keine Ränder. In: Spiegel Spezial 7 (1999), 32—36) [Foto links: Hans-Peter Dürr, 1929—2014]
(24) Ultimative Gegenstände der modernen Physik sind Geist und Leben
Die klassische Physik hat zum Gegenstand Elementarteilchen und deterministische Gesetze. Die moderne Physik hat zum Gegenstand statt Elementarteilchen Relationen, Information, Geist, und statt deterministischen Gesetzen statistische Gesetze, Offenheit, Freiheit, Lebendigkeit: „Das zukünftige Geschehen ist also nicht mehr determiniert, nicht festgelegt, sondern bleibt in gewisser Weise offen. Das Naturgeschehen ist dadurch kein mechanistisches Uhrwerk mehr, sondern hat den Charakter einer fortwährenden Entfaltung“ (Das Netz des Physikers, München 2000, 36).
(25) Mathematische Naturgesetze sind algorithmisch komprimierbare Kurzformeln für eine Teilmenge empirischer Regelmäßigkeiten oder Invarianzen
Der bekannte Astrophysiker und Wissenschaftspublizist John Barrow definiert mathematische Naturgesetze als algorithmisch komprimierte Kurzformeln von Regelmäßigkeiten oder Invarianzen in den Beobachtungsdaten. Sie können daher nur lineare (summierbare) und analysierbare Bereiche der Natur erfassen. Globale (holistische, chaotische) und hyperkomplexe Informationen bleiben nicht im „Netz“ hängen. Außerdem sind logisch jeweils fünf unterschiedliche Verhältnisbestimmungen zwischen (a) dem Universum und den Naturgesetzen, (b) dem Universum und dem Absoluten (Göttlichen), (c) den Naturgesetzen und dem Absoluten (Göttlichen) möglich (Barrow, J. D.: Theorien für Alles. Auf der Suche nach der Weltformel, Reinbek bei Hamburg 1994, 42—49; Orig. Barrow, J. D.: Theories of Everything. The Quest for Ultimate Explanation, Oxford 1991. Deutsch neu aufgelegt u. d. Titel Barrow: Theorien für Alles. Die philosophischen Ansätze der modernen Physik, Heidelberg/Berlin/New York 2002. Neubearbeitung als: New Theories of Everything, Oxford 2007). Wenn die Naturgesetze die Programme (software) des Weltalls sind, und die Anfangsbedingungen das Betriebssystem, dann sind die Elementarteilchen das physikalische Medium (hardware). Auch deren Erkenntnis und Berechenbarkeit nach Art und nach Zahl hängt von eichtheoretischen und geometrischen Symmetrien ab. D. h. wir können deren Existenz nur dann feststellen, wenn die Anzahl der Typen oder Klassen von Elementarteilchen und Grundkräften endlich und überschaubar ist. Aber: „Wie wissen wir, ob sich unser ganzer Ansatz ... nicht in ein viel größeres System einordnen läßt? Dieses würde dann Eigenschaften der Welt entsprechen, die wir uns noch gar nicht vorstellen können.“ (Barrow a.a.O. 1994, 108). Die Suche der Elementarteilchen-Physik nach immer kleineren und grundlegenderen Teilchen und Kräften: von Atomen zu Protonen, Neutronen und Elektronen, von diesen zu Strings, weiter zu Superstrings, oder zu Membranen und Spins, schließlich zur Quintessenz und Matrix etc. ist eine „unendliche Spirale“ (ebd. 116).
(26) Naturkonstanten sind faktisch, relativ und eventuell nur lokal
Auch die Geltung der Naturkonstanten ist nur faktisch, relativ und eventuell im kosmischen Maßstab nur lokal. Grundlegende Konstanten sind die Gravitations- und die Feinstrukturkonstante sowie der Quotient aus Protonen- und Elektronenmasse. Diese bestimmen die Struktur der Atome und Moleküle. Wenn z.B. die String-Theorie mit der Annahme von 10 Raumdimensionen Recht hat, dann müssten „die wahren Naturkonstanten im gesamten Bereich der Raumdimensionen definiert“ werden (Barrow 1994, 137) und nicht nur ausgehend von unserer eingeschränkten dreidimensionalen Welt. Eventuell stellt sich die Stringspannung einmal als wirkliche fundamentale Naturkonstante heraus. Außerdem leben wir in einer physikalisch äußerst unwahrscheinlichen Welt (Anthropisches Prinzip) und können schon von daher nicht ohne weiteres die 'Maße' unserer speziellen kosmischen Wohnung absolut setzen.
(27) Das Standardmodell der Teilchenphysik erklärt nur 4 % der physikalischen Realität
Ferner: Die alltägliche und wissenschaftliche Verstehbarkeit der Welt hängt von der begrifflichen Vereinfachung und gesetzmäßigen Verdichtung linearer (summierbarer), einfacher analysierbarer Phänomene ab. Es gilt: Je extremere Energien und Temperaturen desto größere Regelmäßigkeit, Symmetrie und Einfachheit der Phänomene, aber auch desto größere Totheit und Starrheit. Leben und eine diversifizierte Biochemie hängt dagegen von Symmetriebrechungen und einer kühlen Welt mit niedriger Energie ab. Symmetriebrechungen implizieren aber stets eine nichtlineare Dynamik (Chaos) und damit wieder fehlende Berechenbarkeit. Diese Schranken der Erfahrung und Berechenbarkeit haben zum Resultat, dass das aktuelle Standardmodell der Teilchenphysik nur 4 % der physikalischen Realität des Kosmos (Materie und Strahlung) erfasst und erklärt: Das Standardmodell identifiziert und erklärt nicht die Dunkle Materie (22 % des Kosmos), die Dunkle Energie (74 % des Kosmos) und die Dauer und Konstanz des Kosmos trotz der unvorstellbaren Vakuumenergie der virtuellen Quantenfelder, die nach dem Standardmodell den Kosmos augenblicklich explodieren lassen müssten: „Die Naturgesetze erlauben uns nicht, das herzuleiten, was wir im Universum sehen. Und wir wissen nicht einmal, wo wir die Trennlinie zwischen jenen Aspekten ziehen sollen, die Gesetzen zuzuschreiben sind, und jenen, die sich zufällig ergeben.“ (Barrow 1994, 177).
(28) Die qualitative Komplexität biologischer Systeme kann nicht von einer physikalischen Theorie für Alles abgeleitet werden
Ein besonderes Problem ist die qualitative Komplexität organischer, biologischer Systeme. Zur Erklärung dieser Komplexität sind erfordert (a) spezielle Organisationsprinzipien der Entwicklung der Komplexität und (b) zusätzliche Energie, da der 2. Hauptsatz der Thermodynamik (Entropiesatz) universell gilt, auch in der Quantenmechanik und Relativitätstheorie (wie S. Hawking zeigen konnte): „Eine Theorie für Alles allein kann uns nicht sagen, welche Formen organisierter Komplexität es in der Natur gibt. Solche Zustände sind stark durch ihre Zusammensetzung und ihre Entstehungsgeschichte bedingt. Sie können durch unentdeckte Regeln für die Evolution bestimmt sein, die die Entwicklung aller Formen der Komplexität beherrschen. Eine Theorie für Alles wird auf solche Probleme wie den Ursprung des Lebens und des Bewußtseins wenig oder gar keinen Einfluß haben.“ (Barrow 1994, 205)
(29) Es gibt drei Grenzen logisch-mathematischer Denkkategorien: Nichtlinearität — Nichtlokalität — Symmetrie-/Invarianzhäufung
Und last but not least: Die präzise Anwendbarkeit unserer mathematischen Begriffe und Denkoperationen, d.h. totale Berechenbarkeit besteht nur in der Aussagenlogik und Prädikatenlogik 1. Stufe. Dies ist hinreichend zur Orientierung in unserer kosmischen Wohnung, aber nicht zur Kognition der Totalität der Welt (Bohr), da (a) kein kognitives System oder Programm sich selbst total verstehen und simulieren kann und (b) die Anwendung logisch-mathematischer Denkkategorien an drei Grenzen stößt: Nichtlinearität (komplexe chaotische Systeme) — Nichtlokalität (chaotisches Verhalten von Raum und Zeit, z.B. in der Quantenmechanik, s.o.) — Symmetrie-/Invarianzhäufung (d.h. zuviele Regeln führen wegen Unüberschaubarkeit zur Unerkennbarkeit der Invarianzen / Regeln).
Die spezielle wissenschaftstheoretische Evaluation der Historischen Geologie selbst ist ein durchgängiges Thema des vorliegenden Menus resp. E-Buches und wurde in den vorhergehenden Kapiteln erörtert. Hier nur die folgenden knappen Ergänzungen:
(30) Es ist sinnvoll, korrekten und spekulativen Aktualismus zu unterscheiden
Geologische Alternativtheorien machen die durchaus sinnvolle Unterscheidung von (i) korrekter Aktualismus / Uniformitarismus und (ii) spekulativer Aktualismus / Uniformitarismus. Ersterer überträgt heute beobachtete Vorgänge in die erdgeschichtliche Vergangenheit, um sie anhand dieser zu erklären. Letzterer spekulativer Aktualismus nimmt in der Vergangenheit heute unbeobachtbare extrem langsame Vorgänge an (vgl. Stephan a.a.O. 2010, 215, 225, 238). Insofern ist der spekulative Aktualismus wissenschaftstheoretisch eigentlich kein auf heutige Daten gestützter Aktualismus, sondern eben ein spekulatives Konstrukt.
(31) Die geologische Relativierung des quantitativen Uniformitarismus ist Fakt
Der quantitative Uniformitarismus / Konstanz wird auch durch die Geologie selbst relativiert, z. B.
- insofern vulkanische Glutwolkenablagerungen (Ignimbrite) heute nicht mehr stattfinden (Stephan 2010, 224), oder
- insofern in der uns bekannten geschichtlichen Zeit es nicht mehr der Fall ist, dass wie in den Befunden der erdgeschichtlichen Vergangenheit fast alle Säugetiere anomal verenden (Stephan 2010, 225),
- insofern hochenergetische Strömungsregime eine einheitliche Transportrichtung und Schrägschichtung von mächtigen Buntsandsteinschichten in Mitteleuropa zeigen, deren Stärke mit heutigen geologischen Kräften nicht erklärbar ist (Stephan 2010, 231),
- insofern die sog. Schmiedefeldformation des Ordovizium in mehrfacher Hinsicht den quantitativen Uniformitarismus sprengt; sie zeigt nach Leitfossilien und Radiometrie minimale 0,5—40 cm starke Ablagerungen während 20 Mio. Jahren. Das bedeutet extrem langsame Sedimentierung um 1 mm pro 20.000 Jahre, obwohl nach der Sedimentstruktur feststeht, dass (i) eine schnelle Ablagerung erfolgte (Stephan 2010, 235) und (ii) keine Erosion während der postulierten 20 Mio. Jahre feststellbar ist, obwohl heute die Erosion 600 m [!] pro 10 Mio. Jahre beträgt (Stephan 2010, 237) und (iii) schließlich auch keine Erosion und Sedimentzufuhr aus der Umgebung zu erkennen ist.
(32) Auch die geologische Relativierung des qualitativen Uniformitarismus ist Fakt
Der qualitative Uniformitarismus / Konstanz wird ebenfalls durch die Geologie selbst relativiert, z.B.
- insofern Bändereisenerze heute nicht mehr entstehen,
- insofern Karbonatplattformen des Kambriums heute nicht mehr nachvollziebar sind,
- insofern exzessive Gesteinszersetzung (Saprolitisierung) heute nicht mehr bekannt ist (Stephan 2010, 238—239),
- insofern z. B. die Kalke des rheinischen Schiefergebirges und des Harzes jeden qualitativen Uniformitarismus sprengen, da für sie eine Sedimentationsrate von 1 mm/1000 Jahre angegeben wird, obwohl Ammonoideen bis 40 cm Durchmesser in diese Kalke eingebettet und fossiliert sind, deren Einsedimentierung nach der Theorie also 100.000—800.000 Jahre erfordert haben würde (Stephan 2010, 239).
(33) Die Modelldiskussion der deutschsprachigen Sintflutgeologie ist unabgeschlossen
Insgesamt diskutiert die aktuelle Sintflutgeologie fünf unter sich widersprüchliche Modelle (vgl. Stephan 2010, 88—125, 142—156), von denen nach Auffassung der deutschen Vertreter keines die geologischen Befunde im Kurzzeitrahmen erklären kann: „Hier zeigen alle bislang diskutierten Sintflutmodelle gravierende Schwächen.“ (Stephan 2010, 127) Deswegen gelte: „Aus den dargestellten Gründen gibt es derzeit noch kein wirklich detailliert ausgearbeitetes biblisch-urgeschichtliches Geologie-Modell, das auch nur annähernd so umfassend begründet worden wäre wie das Jahrmillionenmodell der Historischen Geologie.“ (Stephan 2010, 159) Es gibt „tiefgreifende Bedenken, ob es derzeit überhaupt sinnvoll und redlich ist, ein Modell nach außen zu vertreten [...] Die wissenschaftliche Basis ist dafür noch nicht ausreichend [...] Das bedeutet z.B., daß ungelöste Fragen nicht vertuscht werden sollen oder daß einfache Antworten ... möglichst vermieden werden. Die Modelldiskussion zeigt, daß es offenbar keine einfachen Antworten bei der Zusammenschau biblischer Aussagen und naturkundlicher und historischer Daten gibt.“ (2003, 163—165)
(34) Der moderate Katastrophismus variabler Intensität als interdisziplinäre Heuristik
Das favorisierte Konzept ist ein moderater Katastrophismus variabler Intensität, der ein geologisch grundstürzendes Sintflutjahr annimmt plus weitere weniger intensive, aber immer noch heutige Verhältnisse übersteigende geologische Ereignisse und Epochen der Gesteinsbildung zwischen Sündenfall und Sintflut (nach der griechischen Fassung der Genesis [Septuaginta, LXX] ein Zeitraum von 3500 Jahren) (Stephan 2010, 242) plus andere Bedingungen als heute. Nach der Sintflut wird ein geologischer Aktualismus im Rahmen katastrophischer Vorgänge vertreten.
(35) Die Unterscheidung von kulturwissenschaftlich erschlossener Vorgeschichte und naturwissenschaftlich erschlossener Erdgeschichte ist inhaltlich und methodisch wichtig
Das Fazit der aktuellen Methodendiskussion im deutschen geologischen Revisionismus nähert sich in mancher Hinsicht (v.a. theologisch) signifikant dem geschilderten Standpunkt der Tradition des vorchristlichen und christlichen Israel, etwa der Römischen Kirche oder der Östlichen Orthodoxie, an:
„Prinzipiell ist aus theologischer Sicht zu sagen, daß die biblische Urgeschichte (1 Mose 1—11) in allererster Linie die Geschichte der ersten Menschen und nicht die Geschichte der Erde zum Thema hat, daß allerdings die für den Menschen wichtigen Rahmenbedingungen aus seinem Wahrnehmungsbereich beschrieben sind [...] Insgesamt bleibt festzustellen, daß nur mit großer Zurückhaltung geologische Fakten aus den Texten abgeleitet werden können [...] Damit kann die Bibel aber nicht zwischen den Modellen entscheiden. Diese Funktion kommt vielmehr den wissenschaftlichen Überlegungen zu.“ (Stephan 2010, 138, 141)