Читать книгу: «Halbierte Wirklichkeit», страница 5

Шрифт:

Zurück zur heutigen Diskussion um die Philosophie der Physik, wie sie Esfeld zusammengestellt hat: Es fällt auf, dass dieselben Autoren, die nicht imstande sind, ein ontologisches Substrat der Physik zu identifizieren, das allen Kollegen einleuchten würde, verschiedentlich dennoch von Materie reden. Überprüft man diese Rede, dann zeigt sich, dass sie nicht weniger vielfältig ausfällt, sich aber auf einen ganz anderen Aspekt der physikalischen Theorien bezieht. Diese Rede steht offenkundig in der Tradition seit Newton, bestimmte einzelne Größen, wie etwa die Masse, mit der Materie zu identifizieren, wodurch die genannte Paradoxie entsteht, dass dann alle anderen Entitäten, wie Kräfte, Energien, Wellen, Felder etwas Geistiges sein müssten, weil sie ja nichts Materielles mehr sein dürften. Andere Autoren setzen nicht etwa Materie = Masse, sondern sie rechnen Felder mit zur Materie und sprechen kurz von Materiefeldern, wodurch wiederum ein ganz neuer Materiebegriff entsteht. Andererseits haben Physiker wie Louis de Broglie, Richard Feynman und Hermann Haken Bücher geschrieben mit dem Titel „Licht und Materie“. Dieser Sprachgebrauch ist ebenfalls sehr verbreitet. Er liegt aber wiederum quer zu allem, was bisher gesagt wurde und bringt wiederum einen ganz anderen Materiebegriff zur Geltung. Dann gibt es aber auch welche, die alles, was physikalisch bestimmbar ist, mit der Materie identifizieren und dieser allein das Neutrino entgegensetzen, oder solche, die die Fermionen mit der Materie identifizieren, was dann hieße, dass Bosonen, die die Kräfte zwischen den Fermionen vermitteln, nichts mehr mit der Materie zu tun haben könnten. In all diesen Fällen ist es so, dass man willkürlich eine bestimmte Entität aus dem Geflecht der physikalischen Begriffe herausgreift und sie mit der Materie identifiziert, aber jeder greift wieder etwas anderes heraus und es herrscht in dieser Frage keinerlei Konsens unter den Fachleuten.

Was es mit dieser Wirrnis auf sich hat, wird gerade in den Büchern deutlich, die Licht und Materie kontrastieren. Lebensweltlich erscheint es uns in der Tat so, als sei das Licht etwas ganz anderes als die Materie, denn Licht ist im Gegensatz zur Materie schwerelos. Aus diesem Grunde galt es den Griechen als ein göttliches Element und das ist auch noch so in Goethes Farbenlehre oder in der korrespondierenden Auffassung der romantischen Naturphilosophie, aber auch bei Hegel. Doch mit moderner Physik hat all dies nichts mehr zu tun, dazu ist das, was jeweils Materie genannt wird, viel zu heterogen und das göttliche Licht ist allenfalls eine poetische Metapher.

Es scheint hier vielmehr erneut die vertraute, mehrfach beschriebene Dialektik am Werk: Aus unserer lebensweltlich-praktischen Erfahrung kennen wir die Differenz zwischen Geist und Materie, weil wir handelnde Wesen sind, die ihre Handlungen realisieren müssen. Wir sind gezwungen, in die Materie einzugreifen, aber immer nur aufgrund von Motiven, die sich zuvor in unserem Geiste gebildet haben, d. h. der Mensch ist eine Art Amphibium zwischen Geist und Materie und weil es so ist, bestimmen wir den Begriff der Materie immer nur korrelativ zum Begriff des Geistes. Es verhält sich damit so ähnlich wie mit anderen binär codierten Begriffen auch, die sich ebenfalls nur wechselseitig bestimmen: Begriffe wie Sein und Sollen, Sein und Werden, Möglichkeit und Wirklichkeit, Subjekt und Objekt, Einzelner und Gesellschaft, Zufall und Notwendigkeit, Wirklichkeit und Möglichkeit usw.

Keiner von diesen dualen Begriffen kann für sich allein definiert werden. Er muss sich immer an seinem Gegenteil abarbeiten. Von daher könnte man dreist sagen: Der Begriff des Materialismus ist selbstwidersprüchlich. Er muss nämlich, wenn er näher bestimmt werden soll, von seinem Gegenteil Gebrauch machen, wodurch er sich aufhebt. Hegel hat als spiritualistischer Monist das Problem viel deutlicher gesehen. Er wusste, dass er den Geist nur relativ zur Materie bestimmen kann. Also hat er sich in einer gigantischen, lebenslangen Anstrengung darum bemüht zu zeigen, dass die Materie nur eine Form des Geistes sei. Man kann zweifeln, ob ihm das gelungen ist, aber er hat zumindest das Problem gesehen, dass wir nämlich Geist und Materie immer nur wechselseitig bestimmen können, während die heutigen Materialisten sich einfach nur auf die Physik berufen, eine Berufung, die ins Leere geht und die nur deshalb einen Schein von Plausibilität hat, weil der Materialist zuvor seine lebensweltliche, vorphysikalische Erfahrung in eine dazu ungeeignete Physik hineinprojiziert hat. Dann interpretiert er die eher ätherischen Größen seiner Theorie wie Energie, Welle, Feld, Photon oder Neutrino als einen Gegensatz zur Materie, die er lediglich postuliert. Von Geist spricht er gewöhnlich nicht, müsste es aber konsequenterweise tun. Aber dann würde deutlich, dass er sich nicht mehr im Binnenbereich der Naturwissenschaft aufhält. Diesen eher ätherischen Größen, Kraft bei Kepler und Newton, Licht bei de Broglie, Feynman und Haken, Raumzeit bei den Quantenfeldtheoretikern, setzt er sodann die Materie entgegen, wodurch dieser Begriff genauso vielgestaltig wird wie das, wogegen er sich abgrenzt. Vielleicht ist dies der Preis, wenn wir wissenschaftliche Ergebnisse in unsere Lebenswelt rückübersetzen. Dann lösen wir die Präzision der Wissenschaftssprache auf in die Vagheit und Mehrdeutigkeit der Alltagssprache. Es ist wie der Übergang von der Photographie zur Malerei.

Könnte es nicht sein, dass die unglaubliche Faszination, die von Gerhard Richters photographieähnlichen Malereien ausgeht, genau daher rührt, dass er diesem Übergang ästhetisch nachspürt, den wir in der verwissenschaftlichten Moderne permanent, jetzt aber in der Wirklichkeit, vollziehen? Ist nicht die Kunst ein Spiegel der Gesellschaft, und wenn dieses ungeklärte Verhältnis zwischen Wissenschaft und Lebenswelt tatsächlich ein Grundproblem unseres modernen Bewusstseins sein sollte, dann würde die Faszination von Gerhard Richters Malerei verständlich. Richter legt seiner Malerei tatsächlich echte Photographien zugrunde. Er verfremdet sie dann maltechnisch auf eine Art, die den Betrachter völlig ratlos zurücklässt. Man meint auf den ersten Blick, ein echtes Photo zu erkennen. Bei näherem Zusehen verschwimmt aber das Photorealistische und dann glaubt man plötzlich einen kurzen Augenblick lang an abstrakte Malerei, um diesen Gedanken sofort wieder zu verwerfen. Richter bleibt ein Rätsel.

Die abstrakte Malerei geht auf Wassily Kandinsky zurück, der den Blick durchs Mikroskop liebte, d. h. diese Art von Kunst hängt direkt mit dem wissenschaftlichen Weltzugriff zusammen. Das Abstrakte ist das Physikalische. Wenn nun richtig ist, was oben gesagt wurde, dass nämlich Wissenschaft von der konkreten Lebenswelt ausgeht, dass sie in einem Akt der Abstraktion, der Idealisierung und Präzisierung bestimmte Züge der Realität deutlicher hervorhebt als es unsere lebensweltliche Intuition jemals könnte, wenn weiter richtig ist, dass wir das Ergebnis dieser Abstraktion, Idealisierung und Präzisierung wieder in den Referenzrahmen der vielgestaltigen Lebenswelt einordnen, um unser wissenschaftliches Tun zu verstehen, dann gibt es eine direkte Entsprechung zwischen Richters Bezug auf die realistische Photographie und dem Bezug des Materiebegriffs zur physikalischen Forschung: Wir treten einen Schritt zurück von der photorealistischen Präzision unserer wissenschaftlichen Erkenntnisse und sehen uns der Vieldeutigkeit ursprünglicher Lebenswelterfahrung erneut ausgesetzt. Dies irritiert uns ungemein, aber es ist womöglich wahrer (falls man wahr steigern kann), als die photorealistische Präzision unserer wissenschaftlichen Erkenntnisse. Von daher gesehen gibt es nichts dagegen zu sagen, wenn Physiker die Ergebnisse ihrer Wissenschaft im Licht lebensweltlicher Erfahrung erneut deuten. Erforderlich wäre nur, dass sie diese Deutung als Deutung kenntlich machen und dass wir sie nicht zum Korpus der Wissenschaft als solcher rechnen oder mit Prigogine so tun, als wären die Sozial- und Geisteswissenschaften nun plötzlich Teil der Physik geworden oder als hätten wir Personalität in gewissen Hirnwindungen entdeckt.

Würde hingegen die fundamentale Differenz zwischen Wissenschaft und Lebenswelt beachtet, dann wäre die Abhängigkeit all unserer Deutungen von der praktischen Lebenswelt als ihrer Basis offensichtlich. Bezüglich des Materiebegriffs, der hier vor allem interessiert, müssten wir dann seine substanzielle Abhängigkeit vom dualen Begriff des Geistes zugestehen. Der Materialismus wäre am Ende. Er ist nicht imstande, sich konsistent zu artikulieren: „Matter is, what science studies.“ Die Materie bleibt dem Materialisten ein ignotum X und von daher ist die Selbstsicherheit, mit der er seine Weltanschauung zum intellektuellen Standard erhoben hat, einfach nur die Kehrseite einer Unfähigkeit, den differenzierten Blick zu wagen und auf die pseudoreligiöse Sicherheit eines alles überwölbenden und alles erklärenden Materieprinzips zu verzichten.

3.2 Das Supervenienzprinzip

Dieses Prinzip beschreibt das logische Verhältnis zweier Ebenen, also die Statik, d. h. die Hierarchie des Universums. Das letzte Kapitel über den Materiebegriff beschrieb die Basis, das nächste über Kausalität wird seine Dynamik beschreiben. Auf diese Art wird durch drei Prinzipien der weltanschauliche Materialismus festgelegt. Man kann aber zeigen, dass alle drei Prinzipien kein Ergebnis der empirischen Wissenschaft sind, sondern Wunschvorstellungen, wie die Welt zu sein habe, wenn der Materialismus wahr wäre. Ist er nämlich wahr, dann wird die Welt von unten her getragen. Es gibt dann eine letzte, materielle Basis, die den gesamten Überbau hinreichend bestimmt und in den höheren Stockwerken kann nichts geschehen, was nicht bereits durch die materielle Basis grundgelegt wurde, während eine durchweg geschlossene Kausalkette das Universum gegen den Geist abdichtet.

Der Ursprung des zweiten, also des Supervenienzprinzips liegt allerdings nicht in der Naturphilosophie, sondern in der Ethik, nämlich bei Autoren wie George Moore und Richard Hare. Sie beschäftigten sich mit der Frage, ob naturale und moralische Handlungsbeschreibungen unabhängig sind oder nicht. Wenn wir eine Handlung von außen beschreiben (sozusagen naturalistisch), sind dann durch die Beschreibung zugleich die moralischen Eigenschaften dieser Handlung festgelegt oder nicht? Oder anders gewendet: Wenn wir ein Individuum A und ein Individuum B haben, die nach außen hin dieselbe Handlung vollziehen, ist dann auch der moralische Wert beider Handlungen derselbe? Wenn ja, dann superveniert die moralische Qualität von Handlungen auf ihrer natürlichen, wenn nein, dann nicht. Im Fall der Supervenienz legt also die basale Ebene die höhere zwingend fest. Das Umgekehrte muss nicht gefordert werden, denn es kann ohne weiteres der Fall sein, dass zwei Individuen A und B dieselbe moralische Gesinnung haben, aber völlig verschiedene Handlungen vollziehen, um diese Gesinnung zum Ausdruck zu bringen. Man nennt dies auch das Prinzip der multiplen Realisierbarkeit, das auch sonst eine große Rolle spielt, z. B. in den Computertheorien des Geistes. Man kann z. B. ein und dieselbe Software auf völlig verschiedenen Hardwarekonfigurationen laufen lassen. Auch Computerprogramme sind multipel realisierbar.

Man könnte allerdings schon jetzt, im ethischen Bereich, die Frage stellen, ob das Supervenienzprinzip wirklich erfüllt ist, etwa in der Form, wie es Hare vertritt? Ist es wirklich der Fall, dass unsere Handlungen von ihrem materiellen Seinsbestand her zugleich ihren moralischen Wert festlegen? Wenn Kants Unterscheidung zwischen „Legalität“ und „Moralität“ zutreffend ist, dann kann dies nicht der Fall sein. Kant besteht darauf, dass das Motiv einer Handlung von außen nicht zu erkennen sei. Es kann jemand die Gesetze des Staates einhalten aus Berechnung, weil er nicht ins Gefängnis kommen will oder aus moralischen Gründen, weil er an den sittlichen Wert eines wohlgeordneten Staates glaubt. In beiden Fällen unterscheidet sich seine Handlung nach außen hin in nichts. Das hieße also, dass wir Gründe hätten, zu bestreiten, dass der moralische Wert einer Handlung auf ihrem naturalen Fundament superveniert. Das Äußere legt das Innere nicht fest.

Aber man könnte noch einen Schritt weiter gehen: Supervenieren denn Handlungen im Allgemeinen auf Körperbewegungen, die wir wissenschaftlich beschreiben können? Es zeigt sich, dass dies nicht der Fall ist, denn ein und dieselbe Handlung kann nicht nur ganz verschieden realisiert werden, auch ein und dieselbe Körperbewegung kann ganz verschiedenen Sinn haben, je nachdem in welchen Motivationszusammenhang sie eingebettet ist. Ich kann meine Hand heben, um jemanden zu grüßen, ich kann sie aber auch heben, um meine Nervosität abzureagieren oder weil ich jemand zum Schweigen bringen will. Von außen ist der Unterschied nicht erkennbar.17 Wir haben also gute Gründe zu glauben, dass Motive, seien sie moralischer oder außermoralischer Natur, nicht auf ihrem materiellen Substrat supervenieren. Man sieht sofort, dass diese Frage für den Materialismus ganz entscheidend ist. Supervenieren höhere Eigenschaften nicht auf den basalen, dann sind sie autonom und fallen tendenziell aus dem materialistischen Schema heraus.

Der Philosoph Donald Davidson hat nun das Supervenienzprinzip in seinem Artikel „Mental Events“ von 1970 erstmalig auf die Leib-Seele-Debatte übertragen.18 In Davidsons Lesart würde dies bedeuten, dass niemals der Fall eintreten kann, dass ich in meinem Geiste von der Vorstellung A zur Vorstellung B übergehe, ohne dass sich etwas an meinem Gehirnzustand verändert (wenn wir annehmen, dass der Geist lokal auf dem Gehirn superveniert). Nachdem Davidson den Supervenienzgedanken von der Ethik auf die Leib-Seele-Debatte übertragen hatte, stieß er eine mächtige Diskussion an, die sich bis heute immer weiter verzweigt. Zunächst differenzierte man das Prinzip in ein starkes und schwaches, je nach der modalen Kraft, mit der die Basis den Überbau trägt, d. h. ob in allen möglichen Welten oder nur in unserer eigenen. Heute unterscheiden manche Autoren 17 verschiedene Arten Supervenienz. Es ist wie mit den Zyklen und Epizyklen der Ptolemäer, doch die Frage nach der Legitimität des Grundprinzips wird, wie bei den Ptolemäern, schon lange nicht mehr gestellt, denn das Prinzip scheint so einleuchtend wie einstmals die Basis-Überbau-Dialektik der Marxisten und hat auch eine gewisse Verwandtschaft mit ihr. Für die Marxisten legten die sozioökonomischen Bedingungen den Überbau, also Religion, Moral, Kunst, Recht, ja sogar die Wissenschaft, fest. Dies verstanden die Marxisten unter Materialismus.

Die heutigen Materialisten unterscheiden sich von den marxistischen dadurch, dass sie als materielle Basis nicht mehr die Auseinandersetzung des Menschen mit dem Stoff, also die Arbeit annehmen, sondern sie setzen eine materielle Basis, wie sie ihrer Meinung nach die Physik beschreibt und glauben dann, dass diese Basis alle höheren Stufen hinreichend festlegt. Manchmal drücken sie das auch so aus: Muss Gott, wenn er einmal den materiellen Seinsbestand der Elementarteilchen, der Atome oder Moleküle festgelegt hat, noch zusätzlich etwas schaffen, wenn Leben und Bewusstsein entstehen soll? Nur wenn man diese Frage verneint, ist man ein Materialist.

Warum hat Davidson das Supervenienzprinzip von der Ethik auf die Leib-Seele-Debatte übertragen? Wir haben doch sogar gute Gründe zu bezweifeln, dass es in diesem ursprünglichen Anwendungsbereich der Ethik erfüllt ist. Merkwürdigerweise gibt Davidson keine Gründe an, weshalb es sinnvoll sein soll, das Supervenienzprinzip auf das Verhältnis von Leib und Seele zu beziehen. Er unterstellt es einfach als passend. Der biographische Hintergrund ist der, dass Davidson an empirischen Arbeiten beteiligt war, die zeigen sollten, wie unsere mentalen Zustände naturgesetzlich durch die Gehirnzustände festgelegt werden, also der Versuch, Psychologie auf Neurowissenschaft zu reduzieren. Diese Versuche sind gescheitert, so wie früher die Versuche scheiterten, Biologie auf Physik zu reduzieren. Dies führte dazu, dass Davidson den von ihm sogenannten „anomalen Monismus“ entwickelte. Die These war: Es gibt strenge Gesetzlichkeit nur in der Materie, nicht aber im Verhältnis von Geist zu Gehirn. Letztlich existiert nur die eine materielle Substanz, aber sie muss mit Hilfe von nicht rückführbaren Diskursen beschrieben werden, die sich nicht aufeinander reduzieren lassen, also das, was zu Beginn des Kapitels als nichtreduktionistischer Physikalismus erwähnt wurde.

Wir haben die Problematik dieses Konzepts schon in der Einleitung zu diesem Kapitel aufgezeigt. Davidson führte diese Position ein, um zu verhindern, dass der Materialismus kollabiert. Denkt man nämlich die Nichtreduzierbarkeit der Wissenschaften zu Ende, dann wird der Monismus fraglich. Aber weil er das nicht wollte, statuierte er das Supervenienzprinzip: Die materielle Basis legt den mentalen Überbau fest, mögen wir es ausrechnen können oder nicht. Aber wenn wir es nicht ausrechnen können und wenn nach Davidsons „anomalem Monismus“ kein Kausalverhältnis zwischen Gehirn und Geist besteht, dann kann dieser Monismus niemals empirisch bestätigt werden, es fehlen ja die Grundlagen für eine naturgesetzliche Erklärung. Das heißt, dieser Monismus manövriert seine Anhänger aus dem Bereich der empirischen Wissenschaft heraus. Er ist rein spekulativ, wie so oft.

Davidson wurde also berühmt für diesen seinen „anomalen Monismus“. Er besagt, dass die Welt eine materialistische Einheit bildet, so dass der Geist auch nichts anderes sei als die Materie, obwohl die Eigenschaften des Geistes nicht nomologisch = gesetzmäßig aus den materiellen Zuständen des Gehirns abgeleitet werden können. Im Jargon: Gehirn und Geist sind nur token-identisch, nicht aber type-identisch. Schon die Art, wie das Supervenienzprinzip eingeführt wurde, weist also auf den ideologischen Hintergrund hin. Davidson war a priori von der Wahrheit des Materialismus überzeugt und wenn diese Überzeugung begründet wäre, dann auch das Supervenienzprinzip, aber ist es denn begründet? Lässt es sich etwa naturwissenschaftlich oder anders rechtfertigen? Die Überlegungen zur Ethik erwecken Zweifel und diese Zweifel verstärken sich, wenn man den Umgang dieser materialistischen Autoren mit dem Supervenienzprinzip näher ansieht.

In seinem Buch „On the Plurality of Worlds“ vergleicht David Lewis das Supervenienzverhältnis mit einem gepixelten Bild (also etwa einem Bild auf dem Fernsehschirm im Verhältnis zu seinem Inhalt): Das Bild erscheint uns als kontinuierlich und es hat eine ganz bestimmte Bedeutung für uns, doch in Wahrheit handelt es sich nur um die diskrete Verteilung von Punkten auf dem Bildschirm. Wenn nun der Inhalt des Bildes auf diesen Punkten superveniert, wie Lewis unterstellt, dann ist es unmöglich, dass das Bild seine Bedeutung verändert, ohne dass wir zugleich an den Pixeln etwas verändern. Dieser Vergleich ist in zweierlei Hinsicht bemerkenswert: 1) einmal, weil er offenkundig falsch ist, 2) weil er überdies den Einsichten der Quantentheorie widerspricht. Er läuft 1) ins Leere, weil es sich ja nicht so verhält, dass die Bedeutung eines Bildes nur von seinen materiellen Bestandteilen abhängt, sondern sie hängt auch wesentlich von der Einstellung und dem Vorwissen des Betrachters ab. Wer einen Hasen nicht von einem Karnickel unterscheiden kann, wird ein Karnickel auf dem Bildschirm anders sehen als einer, der über diese Unterscheidung verfügt, und ein Jäger, der ein vertieftes Wissen über diese Tiere hat, sieht dasselbe Bild wiederum ganz anders. (In der Kunst würde man hier von Rezeptionsästhetik sprechen).

Dieser Vergleich steht aber auch im Widerspruch 2) zur Quantentheorie. Viele Supervenienztheoretiker haben von der Materie eine Demokrit’sche Vorstellung. Sie glauben, dass es da unten letzte materielle Bestandteile, kleinste Billardkügelchen gibt, auf denen alles aufruht. Man spricht auch von mereologischer Supervenienz. Die Mereologie beschreibt die Teil-Ganzes-Beziehung und im Fall der mereologischen Supervenienz setzt man also distinkte, isolierbare Teile, durch die die komplexeren Gebilde bestimmt werden. Nun hat aber die Quantentheorie, vor allem die Quantenfeldtheorie, die Quanten und Felder einheitlich beschreibt, die Vorstellung von substanzhaften Mikroteilchen gänzlich zerstört. Es gibt Physiker, die in diesem Bereich ganz auf den Teilchenbegriff verzichten, ohne dass ihnen etwas fehlt. Die Physikerin und Philosophin Brigitte Falkenburg hat diesen Sachverhalt in ihren Schriften näher verdeutlicht. Das heißt aber: Diejenigen, die wirklich etwas von Physik verstehen, akzeptieren solche dinghaften Substanzvorstellungen nicht mehr, denn sie haben nichts mit der heutigen Physik zu tun, sondern mit der von vor 2000 Jahren. Sehr interessant in diesem Zusammenhang ist zu sehen, dass doppelt qualifizierte Physiker und Philosophen, die dennoch am materialistischen Konzept festhalten, sich in merkwürdige Außenseiterpositionen hineinmanövrieren müssen. So durchschaut z. B. Michael Esfeld die Schiefheit dieser Demokrit’schen Vorstellung und lässt daher das Geistige im Sinn des quantenphysikalischen Holismus nicht mehr lokal, sondern nur noch global supervenieren, da die Quantentheorie keine separierbaren Wirklichkeitsklötzchen kennt.

Das hieße z. B., dass der Geist nicht mehr auf unserem Gehirn superveniert, sondern auf der ganzen Welt. Dies würde weiter bedeuten, dass ich von einer Vorstellung A zu einer Vorstellung B übergehen könnte, ohne dass sich in meinem Gehirn etwas verändert, es kratzt sich nur ein bestimmter Chinese in diesem Augenblick hinterm Ohr! Das Absurde an dieser Vorstellung ist offenkundig. Vor allem wäre eine solche Globalthese empirisch nicht mehr überprüfbar. Es scheint, dass ein Materialist darauf bestehen sollte, dass der menschliche Geist lokal auf dem Gehirn superveniert, denn nur dies ließe sich neurowissenschaftlich überprüfen. In eins damit scheint der Materialist auf eine überholte, dinghafte Vorstellung letzter materieller Substanzen festgelegt. Wir haben daher nicht nur generelle Zweifel am Supervenienzprinzip, sondern auch begründete Zweifel, dass sich dieses Prinzip naturwissenschaftlich fundieren lässt. Darauf weisen auch die folgenden Überlegungen hin: In der Wissenschaftstheorie gilt seit Quine die empirische Unterdeterminiertheit von Theorien als allgemein akzeptiert. Im frühen Empirismus bei John Locke, ja noch im Wiener Kreis, vertrat man die Ansicht, dass Messdaten Theorien festlegen. Theorien supervenieren danach auf den Messdaten, die sie beschreiben. Das hieße, dass man Theorien induktiv aus der Basis ableiten kann.

Spätestens seit Karl Popper ist man im Gegenteil davon überzeugt, dass der Forschungsprozess hypothetisch deduktiv vonstatten geht. Danach steht am Anfang der Forschung nicht die Messung, sondern eine Idee, eine Hypothese, wie sich die Dinge verhalten könnten. Erst aufgrund dessen entwirft der Physiker das Experiment. Er wüsste ja sonst gar nicht, was er messen sollte. Der Physiker leitet dann aus seiner hypothetisch als wahr angenommenen Theorie rein logisch ab, was der Fall sein müsste, wenn sie wahr wäre und vergleicht damit seine Messergebnisse. Stimmen sie überein, dann hält er seine Theorie für wahr, aber nur fürs Erste. Es könnten ja weitere Gegeninstanzen auftauchen. Wie dem auch sei, der Forschungsprozess läuft also nicht von den Messdaten bottom up zur Theorie, sondern umgekehrt.

Das kann auch gar nicht anders sein, denn es lässt sich mathematisch zeigen, dass ein und dieselbe Menge von Messdaten durch unendlich viele mathematische Funktionen beschrieben werden kann. In der Praxis sind es natürlich viel weniger, weil der Physiker exotische Beschreibungen ablehnen wird, oder solche, die mit seinem sonstigen Wissen nicht in Übereinstimmung gebracht werden können. Das engt die möglichen Kandidaten ein, aber sicher nicht nur auf einen einzigen.

Der Wissenschaftshistoriker Albrecht Fölsing beschreibt in seiner Biographie über Albert Einstein, dass es zur Zeit, als Einstein die Spezielle Relativitätstheorie entwickelte, darüber hinaus drei konkurrierende Theorien gab, die die Messdaten durchweg besser beschrieben. Wenn der Empirismus wahr wäre, hätte Einstein durchfallen müssen. Er bekam aber den Zuschlag, weil seine Theorie einfacher, schöner und eleganter war, d. h. aufgrund metaphysischer und nicht aufgrund empirischer Überlegungen.19 Der Wissenschaftstheoretiker T. S. Kuhn hat in solchen Fällen von einem „Paradigmenwechsel“ gesprochen. Auch wenn man seine radikale These von der Inkommensurabilität solcher Paradigmen nicht für plausibel hält, dann bleibt doch immerhin die Tatsache, dass schöpferische Wissenschaftler ein und denselben Sachverhalt radikal anders beschreiben können. Paradigmen supervenieren also nicht auf den anerkannten Daten. Man sieht also an diesem Beispiel, dass Messdaten Theorien nicht zwingend festlegen. Ein anderes Beispiel ist die alternative Quantentheorie von David Bohm. Sie arbeitet mit verborgenen Parametern und ist im Gegensatz zur offiziell akzeptierten Quantentheorie deterministisch. Von vielen Physikern wird sie abgelehnt, weil sie sehr kompliziert, also nicht schön genug ist, aber das ändert nichts daran, dass sie die Messdaten zutreffend beschreibt.

Aus solchen Gründen wird die empirische Unterdeterminiertheit von Theorien allgemein für wahr gehalten. Doch bedeutet dies: Das Supervenienzprinzip gilt nicht für naturwissenschaftliche Theoriebildung! Der materielle Seinsbestand legt die Gestalt einer wissenschaftlichen Theorie nicht fest und wenn wahr ist, was oben gesagt wurde, dass im Fall konkurrierender Theorien metaphysische Prinzipien den Ausschlag geben, also Überlegungen der Sparsamkeit, Eleganz und Schönheit, dann kann die Naturwissenschaft nicht als Legitimation des Materialismus herangezogen werden und das Supervenienzprinzip hängt in der Luft.

Man könnte aber die Frage nach dem Verhältnis von Supervenienzprinzip und Naturwissenschaft noch schärfer fassen: Supervenieren denn etwa die Naturgesetze auf den ursprünglichen materiellen Letztelementen, die man nach dem materialistischen Prinzip als gegeben unterstellen muss? Wenn sie darauf supervenieren, dann wird man eine Hume’sche Position einnehmen. Nach David Hume sind Naturgesetze lediglich empirische Regularitäten ohne jeden notwendigen Zusammenhang, also letztlich zufällig. Diese sehr schwache Position leuchtet den meisten nicht ein, denn wir haben die Intuition, dass Naturgesetze eine besondere Form der Notwendigkeit repräsentieren.

Der Sachverhalt verstärkt sich, wenn wir auf die mathematische Form der physikalischen Gesetze reflektieren. Mathematik ist eine Idealwissenschaft und es hat sich deshalb nicht bewährt, sie auf die jederzeit veränderliche Empirie zurückzuführen. Allein daraus folgt schon, dass die physikalischen Gesetze nicht auf der Erfahrungsgrundlage supervenieren können. Das Mathematische galt nicht umsonst seit Plato als Widerlegungsinstanz des Materialismus.

Aber wenn dem so ist, dann supervenieren die Naturgesetze sicher nicht auf der materiellen Basis und das wäre ein besonders gravierender Sachverhalt, denn dass Theorien nicht auf Messdaten supervenieren, könnte man allenfalls als etwas ansehen, das eben nur unsere Theorien betrifft, aber die Naturgesetze sind etwas ontologisch Reales und die sie tragenden materiellen Urpartikel auch, jedenfalls nach der Überzeugung der Materialisten. Das heißt aber: Wenn noch nicht einmal die Naturgesetze auf der materiellen Basis supervenieren, welches Vertrauen sollte man dann überhaupt noch in dieses Prinzip setzen?

Ähnliches gilt für die Computerwissenschaft. Der Computer ist für den Materialisten eine wichtige Instanz, weil man seit den 60er Jahren damit angefangen hatte, Geist und Gehirn nach dem Modell von Soft- und Hardware zu deuten. Es ist hier nicht die Frage, ob dieses Modell adäquat ist. Die Frage hier ist vielmehr, ob der Computer das Supervenienzprinzip erfüllt? Dies scheint nicht der Fall. Von der Hardware her gesehen wandelt der Computer nur bestimmte Nullen und Einsen in eine Serie anderer um. Er geht z. B. von 101001 zu 010111 über. Welche Bedeutung hat dieser Übergang? Per se keine. Man muss über das Programm schon informiert sein, will man die Bedeutung dieser Übergänge verstehen. Das heißt: Die Software superveniert nicht auf der Hardware und das hieße im Umkehrschluss: Der Geist superveniert nicht auf dem Gehirn. Warum haben diejenigen, die die Computertheorien einführten, diesen Sachverhalt übersehen? Hilary Putnam, der wesentlich daran beteiligt war und der seine Meinung inzwischen korrigiert hat, sah im Computer im wesentlichen eine universelle Turingmaschine, die mathematische Funktionen ausrechnet ohne zu beachten, dass dieses Berechnen zugleich immer nur in semantisch und pragmatisch bestimmten Kontexten erfolgt.

Man hat den Computer gerne als Paradebeispiel für multiple Realisierbarkeit herangezogen und dieses Prinzip ist hier in der Tat erfüllt, aber man hat übersehen, dass die Kontingenz wechselseitig ist. Es gibt weder einen zwingenden Schluss von der Software auf die Hardware, noch umgekehrt. An sich ist dies nur ein Sonderfall der Zweck-Mittel-Beziehung. Auch Zwecke im Allgemeinen supervenieren nicht auf ihren Mitteln, denn man kann nicht nur ein und denselben Zweck durch völlig verschiedene Mittel realisieren, sondern auch ein und dasselbe Mittel für ganz verschiedene Zwecke heranziehen. Auf diese Art widersprechen alle technischen Artefakte dem Supervenienzprinzip. Ähnliche Verhältnisse gibt es auch in der Biologie. Man hat z. B. sehr lange geglaubt, dass die Eigenschaften von Lebewesen auf der DNA supervenieren (Richard Dawkins glaubt das heute noch). Aber die Systembiologie hat gezeigt, dass die Gene nur ein besonderer Posten in einem ziemlich komplizierten Kausalgeflecht sind, das auf ganz verschiedenen Ebenen und in verschiedenen Richtungen spielt. Das alte Dogma der Molekularbiologie

Бесплатный фрагмент закончился.

1 722,70 ₽
Возрастное ограничение:
0+
Объем:
380 стр. 1 иллюстрация
ISBN:
9783766642271
Издатель:
Правообладатель:
Bookwire
Формат скачивания:
epub, fb2, fb3, ios.epub, mobi, pdf, txt, zip

С этой книгой читают

Новинка
Черновик
4,9
176