Entropie: Evolution und der Zweite Hauptsatz der Thermodynamik


Peter Punin

Ja, der zweite Hauptsatz der Thermodynamik in seiner strengen

Formulierung ΔS ≥ 0 gilt nur für isolierte Systeme.

 

Und dennoch: 

Sind Evolution und Irreversibilität wirklich kompatibel?

 

 Eine erste Annäherung

 

 

Peter Punin

 

Zusammenfassung:

Unbestritten gilt der zweite Hauptsatz der Thermodynamik in seiner strengen Clausius-Formulierung ΔS ³ 0 ausschließlich für isolierte Systeme. Daraus wird – allerdings voreilig – die Kompatibilität zwischen Evolution und Irreversibilität geschlossen.

 

Dieser Artikel weist darauf hin, dass (i) Irreversibilität sich nicht auf Entropie-Variationen im Sinne der Thermodynamik beschränkt, und dass (ii) gerade die Interaktion nicht-isolierter Systeme Probleme mit sich bringt, die im Rahmen der naturalistischen Sicht die Kompatibilität zwischen Evolution und Irreversibilität in Frage stellen, und mehr als das.

 

Die Argumentation dieses Artikels folgt zwei Achsen. Einerseits müssen Irreversibilitäts-Bilanzen, um ihre Vollständigkeit zumindest anzunähern, (i) neben Entropie- und – seit L. Brillouin – Informations-Variationen auch die intrinsische, also nicht-variierende Komplexität aller für die betrachtete Interaktion erforderlichen Faktoren berücksichtigen, und (ii) das Entstehen aller missbräuchlich als „gegeben“ aufgefassten erforderlichen Faktoren miteinbeziehen. Unter dem Blickwinkel einer solchen verallgemeinerten Irreversibilität erscheinen die herkömmlichen Irreversibilitäts-Bilanzen reduzierend, also verfälscht. Anderseits darf im Bezug auf die Evolution nicht vergessen werden, dass jeglicher biotische, bei einem kumulativen Selektionsvorgang wesentlich mitwirkende Faktor zumindest laut der Mainstream-Auffassung selbst aus einem kumulativen Selektionsvorgang hervorgegangen ist, und so weiter, und so weiter. Auch hinter dem bescheidensten, rein mikro-evolutionären, also noch keinen Komplexitätsgewinn generierenden Evolutionsschritt verbirgt sich ein unvorstellbar komplexes Netzwerk von kumulativen Selektionsvorgängen.

 

Aus den konvergierenden Perspektiven dieser beiden Achsen scheint die Hypothese der Kompatibilität zwischen einer ausschließlich von kumulativer Selektion bzw. „ID-freier“ Evolution und der Irreversibilität einfach unhaltbar. 

 

Es sei schon hier bemerkt, dass dieser Artikel seinen fundamentalen Begriff „verallgemeinerte Irreversibilität“ auf eine intuitive Art und Weise einführt. Die nächste Etappe des Projekts, zu dem dieser Artikel gehört, besteht obligatorisch in der rigorosen, streng formalisierten Erarbeitung des Begriffs der „verallgemeinerte Irreversibilität.“ Der vorliegende Artikel dient gewissermaßen zur Vorbereitung des Hauptartikels unseres Projekts.

 

 

0. Einleitung 

 

0.1 Problemstellung; das Ziel des Artikels 

Laut einiger Stimmen – sie leisten dem ID-Ansatz keinen guten Dienst – wäre die biologische Evolution nicht mit dem Zweiten Hauptsatz der Thermodynamik vereinbar[1],[2].

 

Nun, die Widerlegungen der besagten Behauptung – Schreiber und Gimbel [1] widmen diesem Thema einen Artikel von acht zweispaltigen Seiten – rennen offene Türen ein. Ja, in seiner strengen Clausius-Formulierung ΔS ³ 0 gilt der Zweite Hauptsatz der Thermodynamik ausschließlich für isolierte Systeme. Ja, alle Lebewesen sind nicht-isolierte Systeme. Ja, unsere Erde, der Support der Evolution, ist selbst ein nicht-isoliertes System, das von der Sonne Energie mit äußerst niedriger Entropie bezieht, und zwar in Mengen, die die energetischen Bedürfnisse der Evolution bei weitem überschreiten [1]. Ja, die Biosphäre unserer Erde beinhaltet Faktoren/Prozesse, die jene Sonnenenergie mit ihrer äußerst niedrigen Entropie adäquat assimilieren [1]. Qualifizierte „ID-Proponents“ wissen das genau so gut wie qualifizierte ID-Gegner.

 

Und trotzdem ist das alles nicht so einfach. Selbstverständlich gilt Folgendes: Wenn ein gegebenes System Syi eine scheinbare Irreversibilitäts-Verletzung ausdrückt, dann handelt es sich bei Syi um ein nicht-isoliertes System, das mit mindestens einem anderen, ebenfalls nicht-isolierten System Syj, i j, interagiert, so dass im Rahmen von Syi und Syj die Irreversibilität wiederhergestellt ist. Dagegen reicht die alleinige Gegebenheit der Interaktion zweier – oder mehrerer – nicht-isolierter Systeme Syi, Syj, … im Allgemeinen nicht aus, um eine scheinbare Irreversibilitäts-Verletzung durch eines der besagten Systeme Syi, Syj, … vollständig zu erklären. Die Vorbedingungen zur vollständigen Erklärung einer scheinbaren Irreversibilitäts-Verletzung durch nicht-isolierte Systeme erweisen sich bedeutend komplexer, als es aus den gängigen, rein energetischen und/oder klassisch-informationstheoretischen Ansätzen hervorzugehen scheint. Der Zweite Hauptsatz der Thermodynamik in seiner strengen Clausius-Formulierung ΔS ³ 0 drückt, wie O. Costa de Beauregard [3] es bereits am Anfang der Sechzigerjahre im Anschluss an L. Brillouin[4] unterstrichen hat, nur einen Spezialfall von Irreversibilität aus, während der naturwissenschaftliche Begriff „Irreversibilität“ zwar, historisch gesehen, aus der Thermodynamik hervorgegangen ist, aber keineswegs auf letztere beschränkt werden kann.

 

Dieser Artikel gehört zu einem Projekt, das das Ziel hat, zu zeigen, dass gerade die Interaktion zwischen nicht-isolierten Systemen Probleme generiert, die die Kompatibilität zwischen dem Mainstream-Modell der Evolution und einer verallgemeinerten Irreversibilität ausschließen.

 

Die vertiefte Erarbeitung des Begriffs „verallgemeinerte Irreversibilität“ ist im Wesentlichen die Angelegenheit des sich im Augenblick (2024) noch in der Überarbeitung befindenden Hauptartikels des oben genannten Projekts.

 

Der vorliegende Beitrag hat also noch nicht die Ambition, besagte Inkompatibilität zwischen der Evolution im Sinne des Mainstream-Ansatzes und der verallgemeinerten Irreversibilität vertieft zu behandeln. Hier geht es vor allem darum, (i) einen ersten Einblick in das zu erhalten, was unter einer authentisch verallgemeinerten, „post-Brillouinschen“ Irreversibilität zu verstehen ist, und (ii) auf dieser Basis eine gewisse Vorstellung der fundamentalen Schwierigkeiten zu vermitteln, die der Kompatibilität zwischen dem Mainstream-Modell der Evolution und der Irreversibilität im Wege stehen und dadurch die Fundamente des Mainstream-Ansatzes der Evolution schwer unterminieren.

 

0.2 Übersicht

Im Abschnitt 1 geht es um zwei Dimensionen, die selbst bei erweiterten, nicht nur auf rein thermodynamische Entropie-Variationen, sondern auch auf Informationsaustausch eingehenden Irreversibilitäts-Bilanzen „vergessen“ bzw. nicht adäquat behandelt werden: einerseits die intrinsische Komplexität der bei scheinbaren Irreversibilitäts-Verletzungen effektiv involvierten Faktoren, und anderseits alles das, was sich hinter fälschlich als „gegeben“ aufgefassten Faktoren, Systemen usw. verbirgt.

 

Anhand eines etwas veränderten Maxwellschen Dämons beginnt Abschnitt 1 damit, das Problem der intrinsischen Komplexität zu veranschaulichen. In der Tat, selbst wenn der „Neo-Dämon“ – im Gegensatz zu Maxwells Prototyp – jegliche für seinen Job benötigte Energie erhält, so könnte das Gedankenexperiment trotzdem nicht ohne die eigenen Fähigkeiten und die dafür erforderliche intrinsische Komplexität des „Neo-Dämons“ funktionieren. Eine Irreversibilitäts-Bilanz, die nur auf den Austausch von Energie und Information eingeht, dagegen die ebenfalls unvermeidliche intrinsische Komplexität des „Neo-Dämons“ vernachlässigt, ist also von vornherein verfälscht.

 

Was das Problem der missbräuchlich als „gegeben“ auffassten Faktoren, Systeme usw. anbetrifft, kommt Abschnitt 1 auf das „Argument“ zurück, laut dem die Kompatibilität zwischen Evolution und Irreversibilität durch die Versorgung unserer Erde mit Sonnenenergie definitiv erwiesen wäre. Ohne etwas an sich Neues zu bringen, erinnert Abschnitt 1 daran, dass alle über primitive Lebensformen hinausgehende Organismen und damit die eigentliche Evolution adäquat assimilierte Sonnenenergie voraussetzen. Nun ist aber die Sauerstoff-Photosynthese, deren Entstehen keineswegs als „gegeben“ aufgefasst werden kann, selbst aus der Evolution hervorgegangen, so dass die Erklärung des Entstehens der Sauerstoff-Photosynthese genau den selben Irreversibilitäts-Fragen gegenübersteht wie die Erklärung der Evolution selbst. Relativ auf Details eingehend, erinnert Abschnitt 1 ferner daran, dass unsere sogenannte „Erkenntnis“ über den hochkomplexen Werdegang der Sauerstoff-Photosynthese von den präbiotischen Anfängen bis zum Great Oxidation Event (GOE) im Wesentlichen aus sich widersprechenden Hypothesen und Vermutungen besteht, und dass ein derartig unsicheres/spekulatives Gedankengebäude sicherlich nicht als „Argument“ für oder gegen was auch immer dienen kann.

 

Die jeweiligen Probleme der intrinsischen Komplexität und des fälschlich Gegebenen sind eng verschränkt. Wie jegliche Form von Komplexität ist auch intrinsische Komplexität nie „gegeben“, während unter dem missbräuchlichen Vorwand von „Gegebenheit“ ausgeklammerte Komplexität eigentlich in den entsprechenden Irreversibilitäts-Bilanzen aufgeführt sein müsste. Deshalb werden beide Punkte im selben Abschnitt 1 behandelt.

 

Abschnitt 2 beschäftigt sich mit einem grundverschiedenen Problem, dass ebenfalls die angebliche Kompatibilität zwischen Evolution und Irreversibilität unterminiert. Hier handelt es sich um die Tatsache, dass das Funktionieren selbst des bescheidensten Selektionsvorgangs ein ins Unendliche gehendes Netzwerk von Selektionsvorgängen voraussetzt, weswegen die auf den ersten Blick „offenkundige“ Fähigkeit der kumulativen Selektion, die Irreversibilität zu umgehen, sich in Wirklichkeit bedeutend weniger „offenkundig“ erweist. In diesem Artikel sprechen wir kurz vom „Hintergrunds-Netzwerkproblem“ oder noch kürzer einfach vom „Netzwerkproblem.

 

Auch Abschnitt 2 beginnt mit einer intuitiven Veranschaulichung. Die vollständige Erklärung einer scheinbaren Irreversibilitäts-Verletzung wie das Entstehen eines klassischen Uhrwerks aus der inerten Materie kann sich nicht auf die Arbeit eines qualifizierten Uhrmachers beschränken. Als Menschenwesen ist der Uhrmacher – wie die zahlreichen Spezialisten, auf deren direkte oder indirekte Mitarbeit der Uhrmacher angewiesen ist – selbst aus der Evolution in ihrem bisher höchsten Stadium hervorgegangen. Die vollständige (!!) Erklärung des Entstehens eines Uhrwerks als scheinbare Irreversibilitäts-Verletzung umfasst also unter anderem (!!) die gesamte Evolution bis in ihr bisher höchstes Stadium. Angesichts dieses einfachen Beispiels müssen wir uns bereits fragen, ob die vollständige (!!) Erklärung scheinbarer Irreversibilitäts-Verletzung überhaupt möglich ist, und demzufolge akzeptieren, dass jedes Urteil im Bezug auf die angebliche Kompatibilität zwischen Evolution und Irreversibilität höchste Vorsicht gebietet.

 

Da Maxwellsche Dämonen einerseits immer auf der Basis der kumulativen Selektion operieren, und anderseits so rekonfiguriert werden können, dass sie kumulative Selektion im Sinne des Mainstream-Ansatzes der Evolutionstheorie modellieren, untersucht Abschnitt 2 anhand von unter anderem „teleologiefreien“ Neo-Dämonen den Impakt des Netzwerkproblems als Irreversibilitätsfaktor auf die Konsistenz des Mainstream-Ansatzes der Evolutionstheorie. Dabei kommen abgrundtiefe Schwierigkeiten zum Vorschein, darunter auch Grundlagenprobleme rein mathematischer Natur, die allerdings ein eigenes Projekt benötigen.

 

Doch wie dem auch sei, zeigt dieser Artikel, dass die Frage der Kompatibilität zwischen Evolution und Irreversibilität nicht allein auf die Dimensionen Energie- und Informationsaustausch reduziert werden kann, während im Rahmen einer authentisch verallgemeinerten Irreversibilitätsauffassung, die idealerweise auf alle Voraussetzungen der wissenschaftlichen Legitimierung scheinbarer Irreversibilitäts-Verletzungen eingeht, die herkömmlichen Gewissheiten zu charakterisierten Widersprüchen und anderen unüberwindbaren Inkonsistenzen führen.

 

Ein Weg aus dieser Sackgasse würde damit beginnen, die Mainstream-Hypothese einer ausschließlich durch kumulative Selektion angetriebenen Evolution aufzugeben.

 

Es sei noch bemerkt, dass dieser Artikel neben seinem auf ein paar Zeilen beschränkten Fazit und seiner konventionellen, kurzen Rekapitulation auch eine ausgearbeitete, detaillierte Rekapitulation beinhaltet, deren Länge nicht den akademischen Traditionen entspricht, so wie auch die hier vorliegende Übersicht länger ist als üblich. Das erklärt sich folgendermaßen. Da die vorliegende Untersuchung die mühsame Elaboration einer wirklich verallgemeinerten Irreversibilität durchläuft, wobei letztere sich auf unterschiedlichste Arten und Weisen ausdrückt, kann es schwierig werden, die Zusammenhänge auf Anhieb zu erfassen. So wäre es vielleicht empfehlenswert, gleich nach der Übersicht bereits die ausgearbeitete Rekapitulation sozusagen als Kurzfassung des Artikels zu lesen. 

 

0.3 Einige terminologische Präzisionen

Hinter dem bei oberflächlicher Betrachtung so klar scheinenden Begriff „Irreversibilität“ verstecken sich potentielle Unklarheiten und demzufolge Missverständnisse. Die Sache wird in unserem Kontext dadurch erschwert, dass das vorliegende Projekt, wie hier oben gesagt, die bereits informationtheortisch erweiterte thermodynamische Irreversibilität „noch weiter erweitern“ muss, während der vorliegende Artikel als Vorstudie nicht in der Lage ist, die angestrebte authentische Verallgemeinerung des Irreversibilitäts-Begriffs zu formalisieren.

 

Einige provisorische Präzisionen sind nötig, um besagte Unklarheiten und daraus entstehende Missverständnisse zu vermeiden. Unterstreichen wir jedoch, dass dieser nicht-formalisierte Artikel keine Definitionen stricto sensu aufstellt. Hier begnügen wir uns mit einer Klarstellung und mit definitionsartigen Präzisionen, während der Hauptartikel Definitionen im eigentlichen Sinne erarbeitet.

 

Klarstellung 0.3/1 Was die Bedeutung der Begriffe „Ordnung“, „Organisation“ und „Komplexität“ anbetrifft, verweist dieser Artikel auf die Intuition. Es ist nur anzunehmen, dass Ordnung weder Organisation, noch Komplexität erreichen muss, während Komplexität im Kontext dieses Artikels (!!) immer Organisation voraussetzt, und Organisation Ordnung. 

 

In der Tat bringt es einfach nichts, zu versuchen, die Begriffe „Ordnung“ und „Komplexität“ ohne entsprechende Formalismen zu definieren. Dazu kommt, dass besonders im Bezug auf die Bedeutung von „Komplexität“ keine Einstimmigkeit herrscht [5],[6],[7],[8]. Laut Standish „(...) hängen sowohl quantitative als auch qualitative Ansätze zur Komplexität (...) inhärent vom Beobachter oder Kontext ab.“ [8] (meine eigene Übersetzung.) Ohne den Anspruch zu erheben, unlösbare Probleme zu lösen, umgeht der Hauptartikel diese Schwierigkeit mithilfe von Minimaldefinitionen, die trotz ihrer hingenommenen Unvollständigkeit im Bereich der Irreversibilität ausreichen.

 

Legen wir nur fest, dass in diesem Artikel „Komplexität“ systematisch „Organisationskomplexität“ bedeutet.

 

Präzision 0.3/2 Dieser Artikel fokalisiert auf folgende Teilbedeutung des Irreversibilitäts-Begriffs: Es besteht die bis auf Weiteres nicht widerlegte Erfahrungstatsache, dass ein momentan von einem Komplexitäts-Zustand gekennzeichnetes makroskopisches System, solange es mit keinem anderen System interagiert, mit höchster Wahrscheinlichkeit zu einem niedrigeren Komplexitäts-Zustand hin tendiert oder gegebenenfalls im Zustand der maximalen Unordnung verharrt.

 

Man wiederholt nicht oft genug, dass es sich bei Präzision 0.3/2 um eine Erfahrungstatsache handelt. Dieser Punkt sorgt gerade bei Verallgemeinerungen der Irreversibilität für Schwierigkeiten. Allerdings gilt auch, dass die Ablehnung der Universalität dieser Erfahrungstatsache dazu führt, die Möglichkeit eines Perpetuum Mobile zu akzeptieren.

 

Präzision 0.3/3 Dieser Artikel geht davon aus, dass, solange die Erfahrungstatsache der Irreversibilität gemäß Präzision 0.3/2 nicht widerlegt ist, regelmäßig auftretende und/oder dauerhafte absolute Irreversibilitäts-Verletzungen infolge ihrer zum Unendlichen hin tendierende Unwahrscheinlichkeit de facto auszuschließen sind. 

 

In der Praxis können also die in Präzision 0.3/2 vorkommenden Termini „höchstwahrscheinlich“ bzw. „ “ durch „immer“ bzw. „nie“ ersetzt werden.

Anderseits subtendieren die kommenden Präzisionen aus Gründen der Einfachheit stillschweigend die Voraussetzung „solange die Erfahrungstatsache der Irreversibilität gemäß Präzision 0.3/2 nicht widerlegt ist.“ 

In ihrer Formulierung erweist sich Präzision 0.3/3 absolut kompatibel mit der Möglichkeit kleiner Fluktuationen < niedrigere Ordnung → höherer Ordnung > , wie auch dieser Artikel keineswegs das Prinzip der auf derartigen Fluktuationen beruhenden kumulativen Selektion ablehnt. Unklar bleibt nur, wie aus der Akkumulation von selektionierten und stabilisierten Fluktuationen < niedrigere Ordnung → höherer Ordnung > Transitionen < niedrigere Organisation → höherer Organisation

entstehen können.

 

Präzision 0.3/4 In diesem Artikel bezeichnen wir als scheinbare Irreversibilitäts-Verletzung durch ein System Syi jegliche Transition von Syi zu einem höheren Ordnungs-, bzw. Organisations-, bzw. Komplexitäts-Zustand, wenn und nur wenn die betreffende Transition im Rahmen des entsprechenden Kenntnisstandes wissenschaftlich erklärbar ist, wobei unter anderem (!!) Folgendes gilt: Es existiert notwendigerweise ein mit Syi interagierendes System Syj, i j, so dass die Interaktion zwischen Syi und Syj im Bezug auf Syj einen Ordnungs- bzw. Komplexitäts-Rückgang bewirkt, der im absoluten Betrag den Ordnungs-, bzw. Organisations-, bzw. Komplexitäts-Gewinn im Bezug auf Syi übertrifft.

 

Präzision 0.3/5 Jegliche Transition, die ein gegebenes System zu einem höheren Ordnungs- bzw. Komplexitäts-Zustand hin tendieren lässt, ohne jedoch den Bedingungen von Präzision 0.3/4 zu genügen, fällt unter die nicht-erklärten Irreversibilitäts-Verletzungen. 

 

Präzision 03./6 Ein Ansatz, der eine unter die Präzision 0.3/5 fallende Transition als eine unter die Präzision 0.3/4 fallende scheinbare Irreversibilitäts-Verletzung auffasst, kann nicht als wissenschaftlich legitim gelten.

 

 

1. Zwei erste Schritte zur authentisch verallgemeinerten Irreversibilität

 

1.0 Zielsetzung

Abschnitt 1 bearbeitet zwei an sich verschiedene, jedoch eng verschränkte Probleme, die einerseits die Notwendigkeit mit sich bringen, die heutzutage klassische, Brillouinsche Aufassung [4] der Irreversibilität noch weiter zu verallgemeinern, und anderseits dadurch die angebliche Kompatibilität zwischen Evolution und Irreversibilität in Frage stellen: (i) das Problem der intrinsischen Komplexität und (ii) das Problem der missbräuchlich als „gegeben“ aufgefassten Faktoren. Wir werden nach und nach die Komplementarität beider Probleme erkennen. 

 

1.1 Intrinsische Komplexität

Es ist offenkundig, dass dass die Treibfaktoren der Evolution nicht auf rein energetische Phänomene reduzierbar sind, wodurch auch die Irreversibilitäts-Frage im Bezug auf die Evolution sicherlich die Grenzen der rein thermodynamischen Irreversibilität überschreitet. Die inzwischen klassische Auffassung der Irreversibilität laut Brillouin [4],[3], die bei interagierenden Systemen auf den Austausch nicht nur von Energie, sondern auch von Information eingeht, ist in dieser Hinsicht ein relevanter, jedoch nicht ausreichender Ansatzpunkt. Die wirklich verallgemeinerte Irreversibilität, die wir im Rahmen unseres Projekts notwendigerweise erarbeiten, muss ihre Bilanzen jenseits des Austauschs von Energie und Information auf intrinsische Eigenschaften gewisser Faktoren erweitern.

 

Um hier klar zu sehen, ist uns eine „überarbeitete“ Version des Maxwellschen Dämons sehr behilflich. Dieser „Neo-Dämon“, wie er im Rahmen unseres Projekts heißt, erhält und degradiert, im Gegensatz zum nicht operationsfähigen Original, jegliche Energie, die er zur Ausführung seiner Aufgabe benötigt [9]. Das hat durchaus seinen Sinn. Wenn auch der maximale oder zumindest annähernd maximale Entropie-Rückgang ΔGS des Maxwellschen Gases im Zweikammern-Behälter mit der vom Neo-Dämon erzeugten Entropie ΔDS „bezahlt“ [3] werden muss, so dass ΔGS + ΔDS > 0 gilt, bewirkt das Eingreifen des Neo-Dämons – jenseits jeglicher rein-energetischen Fragestellung – immerhin die Rückkehr des Systems von molekularer Unordnung zu molekularer Ordnung, wie es nie spontan geschehen könnte. Laut Kurzynski und Chelminiak [9], Mizraji [10], Monod [11] und anderen, ohne den von Mizraji erwähnten Vorläufer Haldane zu vergessen, ist die belebte Natur voll von Maxwell-Dämon-ähnlichen Entitäten, die zwar die thermodynamische Irreversibilität streng respektieren, dafür jedoch Ordnungs- bzw. Komplexitätszustände erhöhen, wie es sonst in einer der Irreversibilität unterworfenen Welt nicht möglich wäre.

 

Betrachten wir jetzt etwas näher die inzwischen klassische – von L. Brillouin [4] geprägte – Auffassung der Irreversibilitäts-Bilanz des neo-dämonisch erweiterten Maxwellschen Gedankenexperiments. Eine solche Betrachtung legt auf der Stelle die Unvollständigkeit sowohl der klassischen als auch der Brillouinschen Auffassung dar.

 

Wie allgemein bekannt, reduziert der Neo-Dämon die Entropie des Gases in Maxwells Zweikammern-Behälter. Allerdings produziert der Neo-Dämon bereits Entropie mit dem Öffnen und Schließen des wenn auch mikroskopisch kleinen und „fast reibungsfreien“ Türchens in der Trennwand. Ferner muss der Neo-Dämon, um die jeweiligen Geschwindigkeiten der Moleküle messen zu können, letztere „beleuchten“, was auch wieder Entropie erzeugt. Vor allem aber muss der Neo-Dämon sich ständig durch – wiederum Entropie generierende – Messungsprozesse über die jeweiligen Geschwindigkeiten der Moleküle in der Nachbarschaft seines Türchens informieren, und dann diese „Information von der Art Erkenntniserwerb“, wie Costa de Beauregard [3] es nennt, („information du genre acquisition de connaissance“ auf Französisch), in „Information von der Art Fähigkeit, zu organisieren („information du genre pouvoir d'organisation “) [3] umwandeln. Nun sind laut Brillouin thermodynamische Entropie und Information zwar keineswegs „identisch“, aber äquivalent in diesem Sinne, dass ein Informationsgewinn von einem Shannon-BIT unter idealen Bedingungen einen Entropie-Zuwachs von kBln(2) bewirkt, wo „kB “ die Boltzmannsche Konstante bezeichnet. Ein beliebiger Informationsgewinn ΔI über N gleich wahrscheinliche Ereignisse erzeugt also unter idealen Bedingungen einen Entropie-Zuwachs ΔS = kB ln(2)N [4]. Unter reellen Bedingungen haben wir jedoch ΔS > kB ln(2)N [4], vergl. [3] [12].

 

Das Vorausgehende erlaubt es uns nun, das Wesen, aber auch die Grenzen Brioullins [4] erster Erweiterung der rein thermodynamischen Irreversibilität nicht-isolierter Systeme zu erkennen. Kommen wir auf die noch rein thermodynamische Irreversibilitäts-Bilanz einer Maxwell-neo-dämonischen Operation zurück: ΔGS + ΔDS > 0. Offenkundig ist diese Bilanz unvollständig. Die Tatsache, dass bei der Dämonenoperation die negative Entropie-Variation des Gases ΔGS selbst im absoluten Betrag niedriger ist als als die vom Dämon erzeugte positive Entropie-Variation ΔDS erklärt ja keineswegs, wie der Dämon den Gas-Entropie-Rückgang ΔGS, ΔGS < 0, bewerkstelligt. Um die Dämonen-Irreversibilitäts-Bilanz zu vervollständigen, müssen wir erst einmal die involvierte Informations-Variation ΔI im Sinne Brillouins [4] sowie die damit verbundene, wiederum vom Dämon produzierte Entropie-Variation ΔS > kB ln(2)N (siehe oben) in Betracht ziehen. Das bedeutet nun, dass wir im Bezug auf ΔDS innerhalb des Ausdrucks ΔGS + ΔDS > 0 zwischen der von rein thermodynamischen Faktoren bedingten Variation ΔthDS und der von nicht auf Thermodynamik reduzierbaren, rein informationstheoretischen Faktoren bedingten Variation ΔIDS unterscheiden müssen. Hieraus folgt schließlich die Notwendigkeit, die Irreversibilitäts-Bilanz einer Maxwell-neo-dämonischen Operation auf den Term ΔIDS zu erweitern. Einerseits erkennt man zwar leicht, dass selbst unter idealen, der Gleichung ΔIDS = kB ln(2) N entsprechenden Bedingungen die auf diese Art erweiterte Bilanz ΔGS + ΔthDS + ΔIDS > 0 im Bezug auf die Irreversibilität das selbe Ergebnis ausdrückt wie die rein thermodynamische Bilanz ΔGS + ΔDS > 0. Anderseits verkörpert der Ausdruck ΔGS + ΔthDS + ΔIDS > 0 durch seinen Term ΔIDS explizit die Nicht-Reduzierbarkeit der Irreversibilität auf rein thermodynamische Faktoren. Jedoch fehlt bei diesem Ansatz noch etwas Wesentliches. Möge der Neo-Dämon auch alle für seine Aufgabe benötigte Energie erhalten, ohne seine außergewöhnlichen Fähigkeiten und integrierten technologischen Ressourcen wäre der Neo-Dämon nicht in der Lage, eine scheinbare Irreversibilitäts-Verletzung zu bewerkstelligen. In diesem Artikel nennen wir das die „intrinsische Komplexität“ des Neo-Dämons. Offensichtlich muss die Irreversibilitäts-Bilanz der neo-dämonischen Operation nicht nur den damit verbundenen Austausch von Energie und/oder Information beinhalten, sondern auch die intrinsische Komplexität des Neo-Dämons, denn ohne letztere wäre der entsprechende Entropie-Rückgang im Maxwellschen Gas nicht möglich. Ein potentieller Einwand wäre vielleicht, dass die intrinsische Komplexität des Neo-Dämons bereits in der nunmehr klassischen Brillouinschen Irreversibilitäts-Bilanz [4] enthalten sei, und zwar als Information. Dieser Einwand ist jedoch nicht haltbar. Unterstreichen wir, dass es im Brillouinschen Ansatz um den Austausch von Energie und Information zwischen zwei oder mehreren Systemen handelt, und demzufolge um Entropie- und Informations-Variationen ΔS bzw. ΔI, während die intrinsische Komplexität des Neo-Dämons wenigstens während der Dauer des Gedankenexperiments notwendigerweise unverändert bleibt. Im Rahmen des Neo-Dämonen-Gedankenexperiments kann kein Zweifel daran bestehen, dass informationstheoretisch erweiterte Irreversibilitäts-Bilanzen, die jedoch die intrinsische Komplexität des Neo-Dämons vernachlässigen, im Wesentlichen unvollständig sind.

 

Die sehr schwierige Definition einer die intrinsische Komplexität des Neo-Dämons miteinbeziehende Irreversibilitäts-Bilanz, und a fortiori die Verallgemeinerung dieser Definition werden im formalisierten Hauptartikel unseres Projekts erarbeitet.

 

Allerdings liegt es auf der Hand, dass die intrinsische Komplexität des Neo-Dämons komplexer ist als das Ergebnis der neo-dämonischen Operation, das sich auf die Wiederherstellung von Ordnung beschränkt, so unwahrscheinlich dieses Ergebnis unter den Bedingungen der Spontaneität auch sein möge.

 

Die folgende Feststellung leitet uns bereits zum zweiten in Abschnitt 1 behandelten Problem. Die intrinsische Komplexität des Neo-Dämons ist selbst eine – vermutlich scheinbare – Irreversibilitäts-Verletzung. Solange wir – ziemlich oberflächlich – die intrinsische Komplexität des Neo-Dämons als „gegeben“ auffassen, könnten wir den Eindruck haben, dass mit der Integration der intrinsischen Komplexität des Neo-Dämons in die Irreversibilitäts-Bilanz der neo-dämonischen Operation alles gesagt sei. Jedoch, gerade wegen ihrer Eigenschaft einer Komplexität ist es nicht legitim, die intrinsische Komplexität des Neo-Dämons als „gegeben“ aufzufassen. Da die intrinsische Komplexität des Neo-Dämons notwendigerweise selbst aus einer – vermutlich scheinbaren – Irreversibilitäts-Verletzung hervorgegangen ist, müssen, vereinfacht ausgedrückt, die Faktoren hinter dieser zweiten Irreversibilitäts-Verletzung ebenfalls in der Irreversibilitäts-Bilanz der neo-dämonischen Operation berücksichtigt werden. Und wenn das nicht geschieht, dann fehlt in der besagten Irreversibilitäts-Bilanz ein weiterer wesentlicher Punkt.

 

Unterabschnitt 1.2 behandelt das Problem der missbräuchlich als „gegeben“ aufgefassten Evolutionsfaktoren im Rahmen der Evolution selbst.

 

1.2 Das Problem der missbräuchlich als „gegeben“ aufgefassten Evolutionsfaktoren

Kommen wir jetzt auf das viel zitierte „Argument“ [1] zurück, laut dessen die Kompatibilität zwischen Evolution und Irreversibilität durch den Status unserer Erde eines nicht-isolierten Systems definitiv erwiesen wäre. Ja, wie die Einleitung es unterstreicht, sind alle Lebewesen sowie unsere Erde offene Systeme, die vom Zweiten Hauptsatz der Thermodynamik in seiner strengen Clausius-Formulierung ΔS ³ 0 nicht betroffen sind. Ja, als nicht-isoliertes System erhält unsere Erde von der Sonne weit mehr als genug Energie mit äußerst niedriger Entropie usw.. Nun ist es jedoch offensichtlich, dass die alleinige Zuführung „niedrig-entropischer“ Energie in ein nicht-isoliertes System keineswegs ausreicht, um dessen Ordnungs- oder Komplexitäts-Zustand zu erhöhen. Im Gegenteil, wenn uns z.B. der Blitz trifft, erhalten wir als nicht-isolierte Systeme zwar eine gute Dosis von Elektrizität mit äußerst niedriger Entropie, aber dadurch wird unser innerer Ordnungs- bzw. Komplexitäts-Zustand nicht erhöht, sondern eher zerstört. Schreiber und Gimbel sind sich dessen natürlich bewusst. In ihrem in der Einleitung zitierten Artikel [1] erklären Schreiber und Gimbel sehr ausführlich die Faktoren – sagen wir global und etwas vereinfacht die oxygene Photosynthese – die bei der adäquaten Assimilation jener „niedrig-entropischen“ Sonnenenergie eine Rolle spielen. Nun, solange wir die besagten – hochkomplexen und auf sich abgestimmten – Faktoren als „gegeben“ betrachten, scheint es der Tat kein Problem zu geben im Bezug auf die Kompatibilität zwischen den rein energetischen (!!!) Erfordernissen der Evolution und der rein thermodynamischen Irreversibilität. Jedoch, abgesehen davon, dass die adäquate Assimilation der Sonnenenergie zwar eine notwendige, aber sicherlich nicht ausreichende Vorbedingung zur Evolution darstellt, müssen wir uns jetzt an die bereits in Abschnitt 1.1 behandelte Verfälschung einer Irreversibilitäts-Bilanz erinnern, die dann entsteht, wenn intrinsisch komplexe Faktoren missbräuchlich als „gegeben“ betrachtet werden.

 

Einerseits versteht es sich eigentlich von selbst, dass das Entstehen der oxygenen Photosynthese eine mehr als genügend hohe intrinsische Komplexität besitzt, um nicht einfach als „gegeben“ aufgefasst zu werden. Anderseits scheint der Mainstream-Ansatz dieses Detail zu vernachlässigen.

 

Durchleuchten wir also noch einmal die Geschichte und vor allem die Vorgeschichte des Auftauchens der oxygenen Photosynthese, um zu untersuchen, ob sich da alles wirklich sozusagen „von selbst ergeben“ hat.

 

Auf ungefähr 2.32 bis 2.4 Milliarden vor unserer Ära datiert [13],[14], geht das „Great Oxidation Event“ (GOE) auf Cyanobakterien zurück, die mehr als eine Milliarde zuvor entstanden sind [15], [14]. Cyanobakterien sind im Fossil-Register ausgesprochen bezeichnend vertreten und eignen sich auch sonst [14] für empirische Ansätze der anfänglichen Evolution. Allerdings empfehlen Fournier et al. [15] auf diesem Gebiet besondere Vorsicht und unterstreichen, dass die Wahl des benutzten Evolutionsmodells bei gewissen Ansätzen sehr oft einen bedeutenden Impakt auf das Resultat hat. Ohne sich auf reine Spekulation zu reduzieren, bleiben die Untersuchungen der Zeitspanne zwischen dem Entstehen der betreffenden Cyanobakterien und dem GOE unsicher. Wir haben eine gewisse Vorstellung von der Entwicklung dieser Cyanobakterien bis zum GOE, aber nicht mehr. Das allein macht – zumindest nach heutigem Wissensstand – die Behauptung der Kompatibilität der Evolution und der verallgemeinerten Irreversibilität bereits ziemlich wackelig. Jedoch ist das nicht das Hauptproblem. Die wesentlichen Schwierigkeiten liegen tiefer.

 

Erst einmal als solche entstanden, haben die Cyanobakterien die Transition von der unbelebten Materie zum primitiven Leben bereits hinter sich. Nun generiert allerdings besagte Transition von der unbelebten Materie zum primitiven Leben Probleme, die, ohne sich mit denen der Evolution komplexerer Lebensformen zu decken – im Gegenteil ! – sicherlich nicht definitiv gelöst sind. Laut Pross und Pascal [16] gehört der letztliche Ursprung des Lebens auch weiterhin zu den größten wissenschaftlichen Herausforderungen aller Zeiten. Eher optimistisch eingestellt, fragen sich Pross und Pascal [16] immerhin, was wir über dieses Thema wissen, im Prinzip wissen könn(t)en und was wir niemals wissen werden. Sie kommen dabei u.a. zum Ergebnis, dass Untersuchungen der Transition von der unbelebten Materie zum primitiven Leben sich besser auf nicht-geschichtliche Ansätze beschränken sollten, da geschichtliche Ansätze auf diesem Gebiet rein spekulativ bleiben [16]. Nun muss eingestanden werden, dass Evolutionsforschung und nicht-geschichtliche Ansätze durchaus vereinbar sein können. Als solche sind zum Beispiel die Prinzipien der kumulativen Selektion übergeschichtlich. Dagegen könnte man bei einer globalen Einschränkung der Evolutionsforschung auf ungeschichtliche Ansätze eben nicht mehr von Evolutionsforschung im vollständigen Sinne des Terms sprechen.

 

Die Anzahl der Diskussionen über die präbiotische Phase der Evolution – insofern dieser Ausdruck überhaupt Sinn macht – scheint ins Unendliche zu gehen. Allerdings reicht schon eine kleine Auswahl relativ einfacher, jedoch fundamentaler Probleme aus, um zu zeigen, dass die Rückführung des Entstehens der im GOE implizierte Cyanobakterien auf schwachen Füßen steht.

 

Jegliche Lebewesen – einschließlich im GOE implizierte Cyanobakterien – schleppen in ihrer Vorgeschichte ein Paradoxon herum. Wie es J. Drohan [17] kurz und bündig zusammenfasst, ist jede Zelle aus einer zuvor existierenden Zelle entstanden. Aber wie konnte dann die erste Zelle entstehen? Eine andere Variante wäre: Wenn wir die zelluläre Vorgeschichte einer Zelle – zumindest begrifflich/schematisch – Schritt für Schritt zurückverfolgen, dann landen wir fatalerweise in einer Zeitspanne, wo es noch keinerlei Leben gab, also auch keine Zellen.

 

Eine Plethora [18] konkurrierender Theorien [17] versucht, dieses Paradoxon zu lösen:

Der Ansatz der Abiogenese beruht auf der Idee, dass die organischen Grundbausteine des Lebens – Aminosäuren; betonen wir, dass diese Grundbausteine des Lebens noch keineswegs das Leben selbst bedeuten – in einer geeigneten Umwelt und unter der Mitwirkung hoher Energie-Stöße (Blitze, Vulkanausbrüche, ...) aus anorganischen Molekülen entstanden sind. Das berühmte Miller-Urey-Experiment bestätigt gewissermaßen die Möglichkeit dieses Vorgangs, ist aber auch bezeichnender Kritik ausgesetzt. Man muss sich doch unter anderem fragen, wieweit die Bedingungen des Miller-Urey-Experiments und/oder dessen Nachfolge-Experimente (i) für die Ursuppe repräsentativ sind und (ii) im Bezug auf die Bausteine des Lebens Vollständigkeit beanspruchen können. Bemerken wir schon einmal mit Paul Davies [19], dass das Miller-Urey-Experiment eben als Experiment unter Laborbedingungen durchgeführt wurde, was – vereinfacht ausgedrückt – qualifizierte Chemiker und komplexe Apparaturen voraussetzt. Es kann also keineswegs als gesichert gelten, dass unter natürlichen Ursuppen-Bedingungen – was das auch immer gewesen sein möge – etwas Identisches herausgekomment wäre [19]. Abgesehen davon entsprach die primitive Erdatmosphäre höchstwahrscheinlich nicht dem Gasgemisch des Miller-Urey-Experiments [19]. Es fehlt hier am Platz, auf andere Gründe einzugehen, wegen denen es unvorsichtig scheint, kategorisch von der Repräsentativität des Miller-Urey-Experiments und seiner Nachfolge-Experimente im Bezug auf das Entstehens unter natürlicher Bedingungen der Aminosäuren als Grundbausteine des Leben auszugehen. Ich bin auch persönlich davon überzeugt, dass die auf fundamentalen Gegebenheiten beruhenden Einwände Bruno Vollmerts [20] auch nach bald drei Jahrzehnten ihrer Veröffentlichung (1995) weiterhin in Betracht zu ziehen sind.

 

Jedoch bleibt das alles – und vieles anderes, was schon aus Platzgründen hier nicht erwähnt werden kann – relativ nebensächlich. Das Hauptproblem bezieht sich auf intrinsische Probleme der Komplexität als solcher und muss etwas erarbeitet werden.

 

Tun wir so, als ob (!!) die Ursuppen-Theorie „absolut“ der damaligen Realität entspräche. Tun wir ferner so, als ob (!!), trotz aller Einwände von Seiten B. Vollmerts [20], das Phänomen der Selbstorganisation bzw. Selbstmontage – dessen Existenz in gewissen Fällen und unter gewissen Bedingungen keineswegs zu bezweifeln ist [20] – bei „allen“ (!!) Strukturbildungen adäquat einspränge. Tun wir auch noch so, als ob (!!) beim Miller-Urey-Experiment und/oder dessen Nachfolge-Experimenten „keinerlei“ Schwierigkeiten aufträten. Kurz gesagt, tun wir so, als ob (!!) das Entstehen der Grundausteine des Lebens – Aminosäuren – endgültig erklärt wäre. Allerdings würde das alles nichts an der Kluft ändern, die sich zwischen dem mehr als hypothetisch „erklärten“ Abschluss der Präbiotik und dem Beginn der primitiven Lebensformen auftut. Und die Cyanobakterien gehören nun einmal zu den primitiven Lebensformen, deren Komplexität trotz allem die der präbiotischen Erscheinungen weit übertrifft. Bei der Entstehung der Aminosäuren sind wir noch weit von den Cyanobakterien entfernt. Laut Michael Behe [21] besteht ein bedeutendes Problem der Evolutionstheorie darin, zu verstehen, wie Bausteine zusammen gebracht werden. Paul Davies vergleicht dieses Problem mit dem Bau eines Hauses. Die Herstellung von Ziegelsteinen ist einfach. Die Ziegelsteine dann so zusammenzusetzen, dass dabei eine bereits relativ komplexe und vor allem hochspezifisch dedizierte Struktur entsteht, ist eine andere Geschichte [19]. Analog gilt Folgendes: Wenn das Miller-Urey Experiment und seine Nachfolge-Experimente etwas Bezeichnendes beweisen, dann eben die Tatsache, dass die Synthese von Aminosäuren unter gewissen Gegebenheiten ein relativ einfacher, vorhersehbarer Vorgang ist. Damit ist allerdings keineswegs gemeint, dass dieser Vorgang spontan genau die und nur die von der präbiotischen Phase der Evolution erforderten Aminosäuren hervorbringt. Damit öffnet sich nun ein Abgrund zwischen der Aminosäuren-Synthese und dem nächsten Schritt der präbiotischen Evolution, d. h. die Synthese aus geeigneten Aminosäuren der Peptiden als Vorläufer der Proteine [19]. Es darf nicht vergessen werden, dass die Synthese von Peptiden adäquat assimilierte Energie benötigt. Doch während auf der Ebene des Lebens die für die adäquate Energie-Assimilation erforderlichen Faktoren zur Verfügung stehen – schon einmal die oxygene Photosynthese, deren Entstehen (!!) hier behandelt wird, und ferner hochspezifische Moleküle innerhalb der Lebewesen – wäre es widersprüchlich, besagte Faktoren in der präbiotischen Phase der Evolution zu suchen (vergl. [19]).

 

Kurz gesagt, ist der Weg von den letztlichen Grundbausteinen des Lebens zu den primitivsten Lebensformen von unermesslichen Komplikationen geprägt.

 

Die Nasa-Definition des Lebens lautet: “Life is a self-sustaining chemical system capable of Darwinian evolution.” Obwohl der vorliegende Artikel zu einem Projekt gehört, das dazu beitragen will, die Unzulänglichkeiten des Neo-Darwinismus aufzuzeigen, brauchen wir hier nicht auf die Relevanz bzw. nicht-Relevanz der Nasa-Definition eingehen [22]: Wenn der Mainstream-Ansatz der Evolution sich selbst gegenüber kohärent bleiben will, hat keine andere Wahl, als präbiotische Modelle zu bilden, die in die synthetische Theorie der eigentlichen Evolution einmünden. Nun, Leben – nicht die Grundbausteine des Lebens, sondern das Leben selbst – beginnt auf der Ebene der Zelle. Um in der Lage zu sein, dem neo-darwinistischen Modell gemäß zu evolvieren, muss die Zelle die nicht-zureichende, jedoch notwendige Bedingung der Vererbungs-Fähigkeit erfüllen. Besagte Vererbungs-Fähigkeit erfordert DNA, RNA und Proteine. Liam Longo et al. [23] unterstreichen, dass die frühesten Proteine eine besondere Herausforderung darstellen, da sie höchstwahrscheinlich auf abiotischen, spontan synthetisierten Aminosäuren beruhen. Bei ihrem vertieften Versuch, etwas Bezeichnendes zur Lösung dieses Problems beizutragen, heben Longo und Kollegen hervor, dass es sich dabei systematisch um Hypothesen, Anregungen bzw. potentiell mögliche Vorgänge handelt.

 

Aber wie es auch sei, stellt sich vorerst die Frage der Herkunft von ADN und ARN. Auf diesem Gebiet fungiert bis auf Weiteres als augenblickliche Hauptreferenz die sogenannte RNA-Welt-Hypothese, vielleicht in erster Linie deshalb, weil dieser Ansatz gewissermaßen mit dem neo-darwinistischen Modell der eigentlichen Evolution in Einklang gebracht werden kann (vergl. [24], [25]). Ferner bietet die RNA-Welt-Hypothese eine – wenn auch hypothetische – Lösung für die DNA-Protein-Zwickmühle: Laut des zentralen Dogmas der Molekularbiologie wird beim Fluss der genetischen Information DNA in RNA „umgeschrieben“ und RNA in Protein „übersetzt.“ Anderseits benötigt sowohl die „Umschreibung“ (transcription) < DNA → RNA > als auch die „Übersetzung“ < RNA → Protein > Enzyme, die selbst zu den Proteinen gehören. So gibt es anscheinend für die evolutionsbezogene Frage, ob ADN vor Protein entstanden ist oder Protein vor ADN, keine befriedigende Antwort. Es sei denn, man postuliert (!!), dass RNA vor DNA und vor Protein entstanden ist. Diese RNA-Welt-Hypothese stürzt sich auf die Tatsachen, (i) dass RNA sich selbst repliziert, (ii) dass RNA die beiden Funktionen eines Gens und eines Enzyms ausüben kann, (iii) dass für die Umschreibung DNA → RNA die umgekehrte Transkription RNA → DNA möglich ist, und (iv), dass eine gewisse Klasse von RNA in der Lage ist, Ribozymen zu katalysieren [26]. Laut Robertson und Joyce ist die RNA-Welt-Hypothese als solche – sprich „RNA entstand vor DNA“ – „wahrscheinlich“, aber nicht mehr als wahrscheinlich ist [26]. Robertson und Joyce weisen auch darauf hin, das sich die Bedeutung des Terms RNA-Welt-Hypothese von einem Autor zu einem anderen ändern kann [26]. Ferner sagen Robertson und Joyce, dass wir im Bezug auf den Ursprung von RNA zwar wiederum Hypothesen haben, jedoch nichts wissen, und sind sich keineswegs sicher, ob die alleinige RNA-Welt-Hypothese ausreicht, das Entstehen des Lebens auf der Ebene der Zelle zu erklären. B. R. Francis unterstreicht die „Kluft“ (distance), die sich zwischen der präbiotischen Chemie und der Biologie auftut [27]. In seinem Artikel mit dem provokanten Titel „The RNA world hypothesis: the worst theory of the early evolution of life (except for all the others)“ konfrontiert H. S. Bernhardt die RNA-Welt-Hypothese mit ihren Konkurrenz-Hypothesen [28]. Ohne die angesichts der RNA-Welt-Hypothese auftretenden Schwierigkeiten zu verschweigen – im Gegenteil ! – kommt Bernhardt zur Schlussfolgerung, dass die RNA-Welt-Hypothese einerseits im Vergleich zu ihren Konkurrenz-Hypothesen – einschließlich der laut Bernhardt vermutlich unbeweisbaren „proteins first theory“ und „ proteins-RNA coevolution theory“ noch die beste Lösung darstellt, anderseits aber noch weit davon entfernt bleibt, perfekt bzw. vollständig zu sein [28].

 

Halten wir fest, dass bis aus Weiteres niemand den Hypothesen-Status der RNA-Welt-Option ernsthaft in Frage stellt. Positive Artikel über die RNA-Welt-Hypothese legen dar, wie dieses und jenes gewesen sein könnte, oder was dieses und jenes erklären könnte, usw.. Solange die RNA-Welt-Option als Hypothese weder bestätigt, noch widerlegt ist, folgt schon daraus, dass die Konkurrenz-Ansätze zur RNA-Welt-Hypothese selbst weder bestätigte, noch widerlegte Hypothesen sind. Pier Luigi Luisi fasst die Situation folgendermaßen zusammen: „(...), the turning point of non-life to life has never been put into one experimental set up. There are, of course, several hypotheses, and this plethora of ideas means already that we do not have a convincing one.“ [18].

 

Weiter oben hatten wir so getan, „als ob“ das Entstehen der passenden Aminosäuren keinerlei Schwierigkeiten mit sich brächte, um dann festzustellen, dass eine solche kühn-willkürliche Prämisse nichts an den in diesem Artikel behandelten Problemen ändern würde. Jetzt, wo wir die nächste Komplexitäts-Ebene unserer Untersuchung – den Übergang von der Präbiotik zum Anfang des primitiven Lebens – in Angriff nehmen, befinden wir uns in einer analogen Lage. Selbst wenn die RNA-Welt-Hypothese „keine Hypothese wäre“, sondern ein gesicherter Fakt, dann würde das trotzdem nicht ausreichen, das Entstehen der Zelle zu erklären, der Zelle, die einerseits auf einer höheren Komplexitätsstufe liegt als RNA, DNA, Proteine usw., und anderseits die absolute Grundform des Lebens bildet. Ferner ist es dann noch ein weiter und langwieriger Weg vom Entstehen der Cyanobakterien bis zum Great Oxidation Event (GOE).

 

Denken wir jetzt erst einmal daran, dass im Prinzip bei steigender Komplexität die damit verbundenen scheinbaren Irreversibilitäts-Verletzungen im Bezug auf ihre Erklärungen zunehmende Schwierigkeiten mit sich bringen. Das Entstehen der ersten Proteine aus den Grundbausteinen des Leben stellt eine schwerwiegendere scheinbare Irreversibilitäts-Verletzung dar als die Synthese von Aminosäuren aus anorganischen Molekülen. Die weitere Entwicklung verspricht also erneute, noch drastischere Herausforderungen. Was das Entstehen der ersten Zellen anbetrifft, erkennt man da schnell, dass hier bis auf Weiteres im Wesentlichen aufgrund von Indizien und mehr oder weniger fundierten Hypothesen gearbeitet wird. P. Schrumm, T. F. Zhu und J. W. Szostak [29] räumen ein, dass unser Kenntnisstand der präbiotischen Periode, die zum Auftauchen der ersten Zellen hinleitet, bedeutende Lücken aufweist. Sie fügen hinzu, „anzunehmen“ (to assume), dass die für den Vorgang erforderlichen Bausteine zur „Verfügung standen“ [29]. Hier stoßen wir jedoch auf die Haltung, wesentliche Evolutionsfaktoren missbräuchlich als „gegeben“ aufzufassen, was die Debatte über die Kompatibilität zwischen Evolution und Irreversibilität verfälscht. Erinnern wir auch daran, dass selbst bei „gegebenen“ Bausteinen das Hauptproblem darin besteht, letztere zusammenzubringen [21],[19]. Anderseits sind „moderne“ Zellen [24] viel zu komplex, als dass ihre Entstehung auf der Basis rein präbiotischer Gegebenheiten erklärbar wäre. So muss laut Wentao und Feng die Existenz von einfacheren, den eigentlichen Zellen vorausgehenden „Protozellen“ postuliert werden [24], Protozellen, die Gözen et al. trotz ihres Optimismus [25] als hypothetisch bezeichnen. Für nur hypothetisch existierende Protozellen besteht vermutlich der einzig denkbare Ansatz darin, mit Modell-Protozellen zu arbeiten, um unter scharf abgegrenzten Bedingungen, die sich einerseits den damaligen Realitäten so gut wie möglich annähern, anderseits jedoch, absolut gesehen, willkürlich bleiben, zu erkennen, was bei Protozellen schon einmal auszuschließen ist, und dadurch einen gewissen Einblick zu gewinnen, was Protozellen gewesen sein könnten [25], [30], [31], [24].

 

Das Vorausgehende lässt uns bereits erkennen, dass aus der Irreversibilitäts-Perspektive der lange, schon per se schwierige Weg vom Entstehen der Sauerstoff-photosynthetischen Cyanobakterien bis zum Great Oxidation Event“ (GOE) auf höchst zweifelhaften Ausgangsbedingungen beruht. Auch das Weitere verspricht Schwierigkeiten. Erwähnen wir nur kurz die Fragen (i) wie aus den hypothetischen Protozellen Zellen tout court geworden sind und (ii) wie aus irgendwelchen Zellen ausgerechnet die für die eigentliche Evolution derartig determinierenden Sauerstoff-photosynthetischen Cyanobakterien entstehen konnten. Stellen wir nur klar, dass der Rückgriff auf den „Zufall“ keine gute Idee für den Mainstream-Ansatz wäre. Gerade die synthetische Theorie will doch die Erklärung der Evolution von jeglichem Rückgriff auf quasi-unendlich unwahrscheinliche Zufälle reinigen. Bemerken wir nur, dass allein schon die Hypothese des Entstehen der Zellen aus Protozellen, deren reelle oder hypothetische Existenz selbst das Objekt endloser Kontroversen bleibt, das Entstehen der Zellen als ein bis auf Weiteres unerklärtes Phänomen einstuft. Auch die Frage (ii) ist keineswegs befriedigend erklärt [32]. Ferner muss man auch bedenken, dass der von den Sauerstoff-photosynthetischen Cyanobakterien produzierte Sauerstoff für zahlreiche anaerobe Organismen tödlich war. Für das Überleben der Sauerstoff-photosynthetischen Cyanobakterien gibt es wiederum nur eher zu komplizierte Hypothesen [32],[33]. Und während bei oberflächlicher her Betrachtung die Sauerstoff-Anreicherung der Atmosphäre einfach wirken kann, zeigt ein Minimum von Vertiefung, wie seltsam jener Vorgang gewesen sein muss.[33].

 

Der Platz fehlt uns hier, um näher auf die mit dem GOE verbundenen Probleme einzugehen. Das ist auch nicht nötig. Wenn wir die Logik des schwächsten Gliedes einer Kette anwenden, dann reicht die Transition von der Präbiotik zum primitivsten Leben allein aus, um die ganze Kette bis zur entwickelten Form der Sauerstoff-Photosynthese auf eine schwache Hypothese zu reduzieren. Solange es gilt, dass „A satisfactory model system, from which a mechanism of the transition to life can be derived, is still not available.“ [25], oder solange das folgendermaßen motivierte, EU-finanzierte Projekt AbioEvo ...: 

 

„Unser Wissen über und Verständnis für die Entstehung des Universums und seine Entwicklung, einschließlich der Geburt und dem Tod von Sternen und Planeten, hat sich in den vergangenen Jahrzehnten enorm vergrößert. Auch unser Verständnis der Evolution lebender Organismen hat sich dank bahnbrechender technologischer Fortschritte bei der Beobachtung, Messung und Analyse exponentiell verbessert. Das Bindeglied zwischen beiden fehlt allerdings noch: der Übergang von der unbelebten Materie des frühen Universums zu lebender Materie und dem Leben, wie wir es kennen, ein Prozess, der Abiogenese genannt wird. Das EU-finanzierte Projekt AbioEvo will dieses Rätsel lösen, indem es seine RNA-basierte Hypothese testet und die Entstehung der Evolution durch natürliche Selektion in einem rein chemischen System nachweist. “ [34] (Meine eigenen Hervorhebungen) 

 

... dieses „Rätsel“ [34] nicht gelöst hat, bleibt die Behauptung der Kompatibilität zwischen Evolution und Irreversibilität global gesehen im besten Falle eine schwache Hypothese.

 

Erinnern wir daran, dass die Sauerstoff-Photosynthese eine notwendige, dagegen aber keineswegs ausreichende Vorbedingung der Evolution ab den primitiven Lebensformen darstellt. Sollten wir die Sauerstoff-Photosynthese – missbräuchlich – als „gegeben“ auffassen, dann könnten wir – vom rein formell logischen Standpunkt – die adäquat assimilierte Sonnenenergie allenfalls als partielle Erklärung der Evolution als scheinbare Irreversibilität-Verletzung gelten lassen. Wenn wir uns dagegen fragen, wie die Photostéréosynthèse entstanden ist, dann stellen wir schon einmal fest, dass die auf der Ebene der inerten Materie beginnende und zur Sauerstoff-Photosynthese in ihrer aktuellen Form führende Transition selbst eine scheinbare Irreversibilität-Verletzung bildet. Da jedoch im Erklärungsversuch dieser scheinbaren Irreversibilität-Verletzung bis auf Weiteres mindestens ein wesentliches Bindeglied fehlt, kann besagter Erklärungsversuch den Bedingungen von Präzision 0.3/4 nicht genügen, wodurch im Rahmen des augenblicklichen Erkenntnisstandes die Kompatibilität zwischen Evolution und Irreversibilität weder beweisbar, noch widerlegbar ist. Unterstreichen wir „weder beweisbar, noch widerlegbar.“

 

Wenn allerdings eine gezielte Behauptung der Kompatibilität zwischen Evolution und Irreversibilität aufgestellt wird, und vor allem, wenn eine derartige Behauptung als Argument fungieren soll, z.B. als anti-ID Argument wie bei Schreiber und Gimbel [1], dann tritt Präzision 0.3/6 in Kraft, was bedeutet, dass besagte Behauptung nicht als wissenschaftlich legitim betrachtet werden kann und im besten Fall auf einer unvollständigen Behandlung der entsprechenden Fragestellung beruht. 

 

Wir werden jedoch sehen – in diesem Artikel und in anderen Artikeln des vorliegenden Projekts – dass die Hypothese der Kompatibilität zwischen Evolution und Irreversibilität noch auf bedeutend größere Schwierigkeiten stößt.

 

 

2. Das Netzwerkproblem und seine Ausmaße 

 

2.1 Problemstellung

Erinnern wir uns an den Leitfaden des vorliegenden Projekts. Es geht darum, zu zeigen, dass gerade aus den wesentlichen Charakteristiken der nicht-isolierten Systeme Schwierigkeiten entstehen, die die Kompatibilität zwischen Evolution und Irreversibilität in Frage stellen, und mehr als das. Der Absatz 1. partizipiert bereits an diesem Ansatz. Selbst wenn wir „provisorisch“ annehmen, dass die Evolution mit der Sonnenenergie-Versorgung unserer Erde als nicht-isoliertem System „vollständig“ erklärt sei, dann würden wir schnell mit Tatsache in Konflikt geraten, dass die für die Assimilation der Sonnenenergie notwendige Photosynthese wiederum das Ergebnis einer scheinbaren Irreversibilitäts-Verletzung darstellt, die ihrerseits auch einer befriedigenden wissenschaftlichen Erklärung bedarf. Wir haben festgestellt, dass die Erklärung der besagten scheinbaren Irreversibilitäts-Verletzung – immerhin eine Transition von der inerten Materie zur Komplexität der Photosynthese sowohl als Vorgang als auch auch als Struktur – zumindest im augenblicklichen Kenntnisstand auf unüberwindbare Schwierigkeiten stößt. Im Absatz 2. gehen wir jetzt einen Schritt weiter.

 

Nehmen wir an, dass ein System Syi eine Irreversibilitäts-Verletzung ausdrückt, die jedoch durch ein bzw. mehrere mit Syi interagierende(s) System(e) Syj, i j, als scheinbare Irreversibilitäts-Verletzung wissenschaftlich legitimiert ist. Wenn nun das aus Syi und der Menge der mit Syi interagierenden Systemen Syj, i j, bestehende Netzwerk seinerseits nicht kollabiert, d.h. nicht in die Standard-Irreversibilität < Ordnung → Unordnung > abkippt, dann können wir daraus schließen, dass zumindest ein Teil dieser Syj mit noch anderen Systemen Sk, j k, passend interagiert, und so weiter, und so weiter bis buchstäblich ins Unendliche, was allein schon Schwierigkeiten bereitet. Selbstverständlich, wenn (!!) die Irreversibilität ausschließlich die Energie- Dimension beträfe (bitte das Konditional beachten), dann (!!) läge das Gegenargument auf der Hand: Die Sonnenenergie, mit der unsere Erde versorgt wird, ist noch lange genug verfügbar, so dass die mit der Sonnenenergie-Versorgung verbundenen Irreversibilitäts-Effekte selbst nach dem Verschwinden jeglicher Lebensformen und demzufolge der Evolution vernachlässigbar bleiben würden. Aber die Evolution betrifft ja nicht ausschließlich die Energie-Dimension, und so ist die Evolution als scheinbare Irreversibilitätsverletzung keineswegs mit der alleinigen Sonnenenergie-Versorgung unserer Erde erklärt. Im Allgemeinfall ist das Netzwerk-Problem sicherlich nicht vernachlässigbar.

 

Obwohl die Vertiefung dieses Punkts im Rahmen des formalisierten Hauptartikels gehandhabt wird, hat der Absatz 2. des vorliegenden Artikels das Ziel, bereits einen intuitiven Einblick in diese ausgesprochen heikle Angelegenheit zu vermitteln.

 

2.2 Eine andere Watchmaker-Geschichte

Um einen ersten Eindruck von den Schwierigkeiten zu gewinnen, die die Untersuchung der Irreversibilität interagierender Systeme aufgrund deren Nicht-Isoliertheit mit sich bringen kann, beschäftigen wir uns mit einem relativ wenig komplexen System, und zwar mit einem klassischen Uhrwerk. Es sei präzisiert, dass diese Metapher hier im Wesentlichen nichts mit Paleys Watchmaker zu tun hat [35], der von R. Dawkins [36] popularisiert wurde.

 

Nun, anfänglich fragen wir uns – in der Tat ähnlich aber nicht ganz wie Paley – von wo ein irgendwo herumliegendes klassisches Uhrwerk wohl herstammen könnte und haben auch gleich – wiederum ähnlich wie Paley – eine anscheinend relevante Antwort parat: „Von einem qualifizierten Uhrmacher.“ Aber hier hört jegliche Paley-Analogie auf. Mit Recht davon ausgehend, dass die effektive Existenz des Uhrwerks eine scheinbare Irreversibilitäts-Verletzung laut Präzision 0.3/4 darstellt, wollen jetzt feststellen, ob unsere Antwort besagte Irreversibilitäts-Verletzung vollständig bzw. ausreichend als scheinbare Irreversibilitäts-Verletzung legitimiert.

 

Ein Minimum Überlegung legt dar, dass das nicht der Fall ist:

 

Ohne den qualifizierten Uhrmacher würde es selbstverständlich nicht gehen, jedoch reicht der Uhrmacher allein nicht aus. Um seinen Beruf auszuüben, benötigt der Uhrmacher eine solide Ausbildung, und das gilt auch für seine Ausbilder die ja selbst aus einer langen Kette von Vorgängern hervorgegangen sind. Und sollte auch „unser“ Uhrmacher seine Uhrwerke buchstäblich „von A bis Z“ selbst bauen, d.h. jeden einzelnen Bestandteil des Uhrwerks – Zahnrädchen, winzige Sprungfedern, miniaturisierte Schrauben, … – eigenhändig herstellen und zusammensetzen, bräuchte er dafür verschiedene Metalle, deren Gewinnung und Aufarbeitung kompetente Bergleute und Hüttenarbeiter voraussetzt. Auch letztere verdanken ihre unersetzlichen Fähigkeiten Ausbildern, die selbst aus einer langen Kette von Vorgängern hervorgegangen sind, einer Kette, deren Ursprünge sich in der Vorgeschichte verlieren. Die Antwort auf die Frage, wie und woher ein irgendwo herumliegendes klassisches Uhrwerk wohl herstammen könnte, beinhaltet also nicht nur „unseren“ Uhrmacher, sondern auch eine unermessliche Anzahl von anderen Menschen. Und da jegliche Menschen aus der Evolution hervorgegangen sind, und genauer gesagt, aus der Evolution in ihrem höchsten Stadium, muss die vollständige Antwort auf die Frage der Herkunft eines x-beliebigen klassischen Uhrwerks auch die ganze Evolution bis zu ihrem höchsten Stadium beinhalten. In der Tat, wenn auch das besagte Uhrwerk selbstverständlich nicht direkt aus der Evolution entstanden ist, so gehört doch die ganze Evolution bis zu ihrem höchsten Stadium zu den notwendigen Vorbedingungen zum Entstehen des besagten Uhrwerks.

 

Es stellt sich nun eine neue Frage: Ist mit der Evolution in ihrem höchsten Stadium das Entstehen des Uhrwerks vollständig erklärt? Oder anders ausgedrückt: Ist mit der Evolution in ihrem höchsten Stadium das Entstehen des Uhrwerks als scheinbare Irreversibilitäts-Verletzung legitimiert?

 

Das scheint schon aus dem folgenden Grunde fraglich: Keine Evolutionstheorie kann uns allein erklären, wie der homo sapiens effektiv dazu gekommen ist, die Kenntnisse und technischen Fähigkeiten zu erwerben, die das Uhrmacherhandwerk erfordert. Aber lassen wir diesen Punkt beiseite. Das wesentliche Problem liegt tiefer.

 

Nehmen wir an, dass wir in der Tat zum Entstehen des Uhrwerks eine vollständige Irreversibilitäts-Bilanz erstellt haben. Diese Bilanz enthält dann unter anderem (i) die so viel zitierte Sonnenenergie, aber auch die Herkunft der Sonne, ohne die es keine Sonnenenergie gäbe, wobei wir die Herkunft der Sonne bis zum Urknall zurückverfolgen müssen, (ii) die ganze Evolution, wie sie faktisch bis zu ihrem höchsten Stadium abgelaufen ist, einschließlich ihr ihr Teilvorgang, der zur Sauerstoff-Photosynthese geführt hat; Teilvorgang, ohne den es keine über primitive Lebensformen hinausgehende Evolution gegeben hätte, wobei jedoch der besagte Teilvorgang sicherlich nicht vollständig erklärt ist, (iii) die Menge aller in der Evolution implizierten kumulativen Selektionsvorgänge nebst jeglichem damit verbundenen Energie- und Informationsaustausch, und (iv) die akkumulierte intrinsische Komplexität aller von der Evolution als solcher und vom ihrem kosmologischen Hintergrund erforderlichen Faktoren. Diese Liste erhebt keinerlei Anspruch auf Vollständigkeit, und es wäre unehrlich, die damit verbundenen Widersprüche und sonstigen Schwierigkeiten zu verschweigen. Nehmen wir jedoch trotz allem an, dass uns die dem Entstehen des Uhrwerks entsprechende globale, vollständige Irreversibilitäts-Bilanz zur Verfügung stände. Auf den ersten Blick wäre dann vielleicht dem Anschein nach alles in Ordnung. Von einer wissenschaftlich legitimierten scheinbaren Irreversibilitäts-Verletzung durch ein System Syi erwarten wir laut Präzision 0.3/4 die Existenz eines mit Syi interagierenden Systems Syj, i j, dessen globale Komplexität im absoluten Betrag den Komplexitätsgewinn innerhalb von Syi übertrifft. Nun, die oben angeführten Punkte (i), (ii), (iii), (iv) deuten darauf hin, dass die akkumulierte Komplexität der absoluten Erfordernisse des Entstehens eines relativ einfachen Uhrwerks quasi unendlich höher ist als die Komplexität des entstandenen Uhrwerks. Allerdings muss hinzugefügt werden, dass die Existenz des für das Entstehen des Uhrwerks erforderlichen, höchst komplexen Megasystems selbst eine quasi unendlich unwahrscheinliche Irreversibilitäts-Verletzung darstellt, die ebenfalls durch das Einwirken eines noch komplexeren legitimiert werden muss, und so weiter und so weiter bis ins Unendliche stricto senso.

 

Der Rest des Abschnitts 2 hat zum Ziel, das mithilfe der Uhrmacher-Metapher veranschaulichte Netzwerkproblem im Bezug auf die Evolution selbst zu vertiefen. 

 

2.3 Rückkehr zum Maxwellschen Neo-Dämon

Wir haben uns bereits im Absatz 1.2 mit einer überarbeiteten Version des Maxwellschen Dämons beschäftigt, in diesem Artikel „Neo-Dämon“ genannt. Erinnern wir daran, dass besagter Neo-Dämon die Funktionsmodalitäten seines von J.C. Maxwell persönlich konzipiertem Vorgänger teilt, außer dass er all die für seine ordnende Intervention notwendige Energie erhält und degradiert [9], [10],[11]. Wir haben ebenfalls schon gesehen, dass eine solche Entität durchaus ihren Sinn hat. Selbst wenn die rein thermodynamische Irreversibilität respektiert bleibt – mit dem Maxwellschen Ur-Dämon sollte ja gerade das umgangen werden – könnte das molekular ungeordnete Gas in seinem Zwei-Kammern-Behälter ohne den Neo-Dämon seine anfängliche Ordnung nicht wiederfinden oder auch nur annähern.

 

Im Absatz 1.2 hatten wir uns für den Neo-Dämon in Hinsicht auf dessen intrinsische Komplexität interessiert, und zwar um die Tatsache zu illustrieren, dass vollständige(re) Irreversibilitäts-Bilanzen interagierender Systeme nicht nur deren Energie- und/oder Informationsaustausch in Betracht ziehen müssen, sondern auch deren jeweilige intrinsische Komplexität.

 

Hier, im Unter-Absatz 2.3 untersuchen wir den Neo-Dämon im Bezug auf das ins Unendliche gehende Netzwerk, das sich – analog zur nicht-Paleyschen Watchmaker-Geschichte im Unter-Absatz 2.2 – hinter dem Entstehen des Neo-Dämons als scheinbare Irreversibilitäts-Verletzung verbirgt. Allerdings werden wir sehen, dass der Neo-Dämon gewisse Analogien mit der Evolution aufweist, die der nicht-Paleyschen Watchmaker-Geschichte noch verschlossen bleiben.

 

Wir werden uns zuerst mit der Idee eines von Menschenhand geschaffenen Neo-Dämons beschäftigen und dabei bereits erkennen, dass es sich hier um wesentlich mehr als eine höher ausgetüftelte Version der nicht-Paleyschen Watchmaker-Geschichte handelt.

 

Daraufhin ziehen wir die natürlichen neo-dämonartigen Faktoren in Betracht, die in der Biosphäre durchaus existieren [9],[10], [11]. Bei dieser Gelegenheit werden wir feststellen, dass die netzwerk-bezogenen Erkenntnisse, die wir angesichts des von Menschenhand geschaffenen Neo-Dämons gewonnen haben, aus der Perspektive des evolutionsbedingten Entstehen der natürlichen neo-dämonenartigen Faktoren neue, fundamentale Fragestellungen öffnen, die der Kompatibilität zwischen Evolution und Irreversibilität abgrundtiefe Schwierigkeiten bereiten.

 

2.3.1 Der von Menschenhand geschaffene Maxwellsche Neo-Dämon 

Selbstverständlich teilt ein von von Menschenhand geschaffener Neo-Dämon all das, was wir im Bezug auf das nicht-Paleysche Uhrwerk gesehen haben. Nur erweist sich dieser Punkt hier bedeutend komplizierter, wobei noch andere, grundverschiedene Probleme dazukommen.

 

Da der Neo-Dämon Information empfängt, speichert, verarbeitet und auch den entsprechenden Output adäquaten behandelt, fassen wir ihn notwendigerweise als eine computerähnliche Entität auf. Während nun das Uhrwerk primär von einem qualifizierten Uhrmacher geschaffen werden kann, benötigen sowohl die Konzeption als auch die Herstellung eines Neo-Dämons die Zusammenarbeit einer Anzahl von höchstqualifizierten, aus sehr verschiedenen Fachbereichen stammenden Computerwissenschaftlern, deren Kompetenzen ihnen von forschungs- oder anwendungsorientierten Hochschulen übermittelt wurden, wobei besagte Hochschulen, institutionell gesehen, nicht von heute auf morgen entstanden sind, sondern lange Traditionen hinter sich haben. Ferner können Hochschulen nicht auf die Mithilfe der zu ihnen hinführenden Grundschulen und höheren Schulen verzichten. Auch die für die Herstellung einer computerähnlichen Entität wie ein Neo-Dämon erforderliche Verfügbarkeit von Werkstoffen dürfte höhere und diversifiziertere Kompetenzen voraussetzen, als wie es bei der Herstellung von klassischen Uhrwerken der Fall ist, aber auch diese Kompetenzen haben Wurzeln, die sich in einer weit zurückliegenden Vergangenheit verlieren. Wie bei der Uhrmacher-Metapher umfasst das dem Entstehen eines Neo-Dämons zuzuordnende Netzwerk ebenfalls eine unermessliche, über die Zeit verteilte Anzahl von Menschen, und da letztere aus der Evolution in ihrem höchsten Stadium hervorgegangen sind, selbst die ganze Evolution bis zu ihrem höchsten Stadium.

 

Wie gesagt, erweist sich das Netzwerk hinter dem Entstehen eines Neo-Dämons zumindest unter gewissen Blickwinkeln komplexer als das Netzwerk hinter dem Entstehen eines klassischen Uhrwerks, jedoch handelt es sich in beiden Fällen um den selben Gedankengang.

 

Nun kommen wir allerdings zu einer abgrundtiefen, das Entstehen eines Neo-Dämons betreffender Schwierigkeit, die die Uhrmacher-Metapher nicht teilt. Diese Schwierigkeit zu erfassen erfordert allerdings etwas Geduld.

 

Eine computerähnliche Entität, also auch ein Neo-Dämon, besteht, etwas vereinfacht ausgedrückt, aus Hardware und Software. Nun beruht beides, Hardware und Software, auf Boolescher Algebra [37],[38]. Genauer gesagt, ist Boolesche Algebra bei der Konzeption von Hardware ein wesentliches Werkzeug, während die immaterielle Software letzten Endes Boolesche Algebra ist bzw. spezifiziert. Anderseits ist Boolesche Algebra ein Teilgebiet dessen, was man „moderne Algebra“ oder „abstrakte Algebra“ nennt [39]. Wir müssen von einem Teilgebiet der modernen Algebra erwarten, dass es der modernen Algebra gegenüber konsistent ist und umgekehrt. Andernfalls wäre Boolesche Algebra ein Fremdkörper in der der modernen Algebra, und nicht eines derer Teilgebiete. Auch ohne besonders vertiefte mathematische Kenntnisse erkennt man, dass Boolesche Algebra und Mengenalgebra sich decken. Zum Beispiel sind die Begriffe „Vereinigungsmenge M1 M2“ und „Schnittmenge M1 M2“ zweier Mengen M1 = { E, E p1} und M2 = { E, E p2} durch die Booleschen Operationen E p1 E p2 und E p1 E p2 exhaustiv charakterisiert. Anderseits ist es unnötig, auf die fundamentale Rolle innerhalb des gesamten mathematischen Gebäudes der Mengenlehre im Allgemeinen und demzufolge auch der Mengenalgebra hinzuweisen. Nun gilt aber, dass die Konsistenz der Booleschen Algebra gegenüber einem jeglichen Teilgebiet der Mathematik die Konsistenz eines jeglichen, auch noch so entfernten Teilgebiets der Mathematik gegenüber der Booleschen Algebra voraussetzt.

 

Bekanntlich kursieren divergierende und selbst widersprüchliche Theorien über die Konsistenz der Mathematik. Dieses Thema liegt außerhalb des Bereichs der vorliegenden Untersuchung. Obwohl ich persönlich hard core Platoniker bin, schlage ich vor, dass wir hier die Haltung eines Mathematikers teilen, der bei seiner tagtäglichen Arbeit nicht auf die Probleme der mathematischen Grundlagenforschung eingeht, und dabei de facto keinerlei mathematischer Inkonsistenz ausgesetzt ist. Allerdings stellt selbst eine derartig bescheidene Auffassung der Konsistenz mathematischer Gebäude im Rahmen der notwendigen Voraussetzungen zur Möglichkeit von Neo-Dämonen eine geradezu unvorstellbar anspruchsvolle Voraussetzung dar.

 

Unter diesen Bedingungen können wir das Vorausgehende folgendermaßen zusammenfassen:

Die Konzeption eines Neo-Dämons erfordert ein Netzwerk, das zumindest folgende Elemente beinhaltet: (i) Eine die Erfahrung transzendierende Mathematik, innerhalb der die Boolesche Algebra sich de facto konsistent erweist, (ii) Computerwissenschaftler und Spezialisten aus anderen Fachrichtungen, (iii) Institutionen, aus denen die in Punkt (ii) genannten qualifizierten Personen hervorgegangen sind, (iv) Energie/Materie, und (v) die ganze Evolution als solche in ihrem höchsten Stadium. Das sind mehrere, sehr verschiedene, schwer unter einen gemeinsamen Nenner zu bringende Arten von Komplexität, die jedoch alle in Betracht gezogen werden müssen.

 

Analog zur Uhrmacher-Metapher tun wir jetzt so, als ob die Liste der fünf Punkte (i), (ii), (iii), (iv), (v) als exhaustiv aufgefasst werden könnte. Anders ausgedrückt, tun wir jetzt so, als ob damit das Entstehen des Neo-Dämons als scheinbare Irreversibilitäts-Verletzung vollständig erklärt wäre.

 

Diese Haltung führt unvermeidlich zu einem Widerspruch von der Art, wie wir sie schon im Bezug auf die Uhrmacher-Metapher angetroffen haben. Analog zu der nicht-Paleyschen Watchmaker-Geschichte erkennen wir im Entstehen des Neo-Dämons eine vermutlich scheinbare Irreversibilitäts-Verletzung. Jedoch wäre letztere nur dann vollständig erklärt bzw. wissenschaftlich als scheinbare Irreversibilitäts-Verletzung legitimiert, wenn das gesamte, durch die Punkte (i), (ii), (iii), (iv), (v) charakterisierte System keine Interaktion mit einem anderen System benötigte, im Gegensatz zu dem, was eigentlich von wissenschaftlich legitimen scheinbaren Irreversibilitäts-Verletzungen erwartet wird. Die Behauptung, dass das gesamte, durch die Punkte (i), (ii), (iii), (iv), (v) charakterisierte System keine Interaktion mit mindestens einem anderen System benötige, würde also sichtlich mit der allgemein akzeptierten Theorie der scheinbaren Irreversibilitäts-Verletzungen durch nicht-isolierte Systeme in Konflikt geraten.

 

Ähnlich wie bei der Uhrmacher-Metapher bleibt auch beim von Menschenhand geschaffenen Neo-Dämons jegliche Erweiterung des – zumindest theoretisch – effektiv betrachteten Hintergrundnetzwerks unendlich unvollständig. Jedoch kommt beim von Menschenhand geschaffenen Neo-Dämons ein weiteres, fundamentales Problem hinzu. Mit Punkt (i) beinhaltet das die Punkte (i), (ii), (iii), (iv), (v) umfassende, sowohl unvorstellbar komplexe als auch unendlich unvollständige Neo-Dämonen-Hintergrundnetzwerk bereits eine die Erfahrung transzendierene Dimension.

 

2.32 Natürliche Neo-Dämonen 

Die Menschenwerk-Version des Neo-Dämons ist als eine per se rein virtuelle Gedankenkonfiguration zu verstehen, die uns vor allem hilft, die Schwierigkeiten zu erfassen, die aus dem mathematischen Hintergrund des Neo-Dämon als Antriebsfaktor gewisser scheinbarer Irreversibilitäts-Verletzungen entstehen. Besagte Schwierigkeiten spielen eine wichtige Rolle im vorliegendem Unter-Absatz 2.32. Die Idee natürlicher, aus der Evolution hervorgegangener Neo-Dämonen ist bedeutend realitätsbezogenet. Erinnern wir uns daran, dass laut Kurzynski et al. [9], Mizraji [10], Monod [11] derartige Entitäten in der Natur tatsächlich existieren. Aus naheliegenden Gründen spiegeln sich die bei Menschenwerk-Dämonen angetroffenen Irreversibilitätsprobleme in natürlichen, aus der Evolution hervorgegangenen Neo-Dämonen wieder.

 

Wir haben anfangs – der Einfachheit zuliebe – den Neo-Dämon von seiner ursprünglichen Maxwell-Version ausschließlich dadurch differenziert, dass der erstere den zweiten Hauptsatz der Thermodynamik respektiert, anstelle zu versuchen, ihn zu umgehen. Das hat uns erlaubt, spontan zu erkennen, dass (i) die intrinsische Komplexität des Neo-Dämons und (ii) die Komplexität des Netzwerks hinter dem Neo-Dämon bedeutend höher sind als die vom Neo-Dämon bewerkstelligte, wenn auch per se unglaublich unwahrscheinliche scheinbare Irreversibilitäts-Verletzung, i.e. die Rückkehr oder zumindest Quasi-Rückkehr des Systems zu seinem anfänglichen Zustand, wo alle Moleküle sich in einer der beiden Abteilungen des Gasbehälters befanden.

 

Jetzt müssen wir jedoch eine noch weiter modifizierte Version des Maxwellschen Dämons einführen, und zwar aus folgendem Grund: Analog zu R. Dawkins' Wiesel-Simulation [36] modellieren sowohl der ursprüngliche Maxwellsche Dämon als auch der Neo-Dämon kumulative Selektion mit einem im Voraus gegebenen Ziel, oder, anders ausgedrückt, kumulative Selektion mit intelligent design der teleologischen Art. Da wir aber einerseits die Schwierigkeiten des Mainstream-Ansatzes der Evolution untersuchen, während anderseits Dawkins [36] selbst die Nicht-Repräsentativität seines Wiesels gegenüber dem Mainstream-Ansatz unterstreicht, betrachten wir von hier ab einen Neo-Dämon ohne ein im Voraus gegebenes Ziel. Dieser Neo-Dämon – wir nennen ihn den „modifizierten Neo-Dämon“ – besitzt „nur“ die Fähigkeit, das System, das er via kumulative Selektion behandelt, in unvorhersehbarer Art und Weise von niedrigeren Ordnungs- bzw. Komplexitäts-Zuständen zu höheren zu bringen. Daraus ergibt sich ipso facto, dass modifizierte Neo-Dämonen die kumulative Selektion im Sinne des Mainstream-Ansatzes der Evolution modellieren.

 

Hiermit beginnen allerdings auch neue Schwierigkeiten. Während die Operationen des nicht-modifizierten Neo-Dämons im Sinne Maxwells und die Ergebnisse dieser Operationen perfekt nachvollziehbar sind – das Ganze funktioniert genauso wie Dawkins' Wiesel-Simulation – erlaubt uns kein modifizierter Neo-Dämon als solcher zu erkennen, wie die Akkumulation von Effekten kleinster Selektionsschritte zu ansteigender Organisationskomplexität führt. Die Abwesenheit eines im Voraus gegebenen Zieles, die den modifizierten Neo-Dämon charakterisiert, erleichtert sicherlich nicht die Untersuchung des Auftauchens von steigender Organisationskomplexität aus der Akkumulation kleinster Selektionsschritte. Da der modifizierten Neo-Dämon die kumulative Selektion so modelliert, wie sie der Mainstream-Ansatz der Evolutionstheorie als evolutionären Antrieb zu erkennen glaubt, modelliert er auch die Unzulänglichkeiten des Mainstream-Ansatzes.

 

Um diesen letzten Punkt zu verdeutlichen, kommen wir jetzt auf Maxwells Urdämon zurück, und, genauer gesagt, auf die Absichten, die Maxwell veranlasst hatten, sein Gedankenexperiment zu konzipieren. Wir werden sehen, dass dieser Punkt auch in unserem Kontext von Bedeutung ist.

 

Seit Boltzmann haben sich die Physik und ihre Philosophie intensiv mit der Frage beschäftigt, ob die Irreversibilität als „gesetzartiges“ („law-like“) oder „faktenartiges“ („ fact-like“) Phänomen zu werten ist, wenn auch die Termen „law-like“ und „ fact-like“ erst 1961 von Mehlberg eingeführt wurden [40]. Da Maxwell eine entscheidende Rolle bei der Geburt der statistischen Mechanik spielte, sah er sich unweigerlich mit folgendem, seitdem allgemein bekannten Problem konfrontiert: Vereinfacht ausgedrückt, wäre theoretisch die Bewegung eines jeglichen Moleküls innerhalb eines Gases von den Gesetzen der reversiblen Newtonschen Mechanik determiniert. Und trotzdem tendiert bei besagtem Gas die Gesamtheit der molekularen Bewegungen immer von Zuständen der Ordnung zu Zuständen der Unordnung hin, während die Umkehrung dieses Vorgangs nie beobachtet wird. Maxwell schloss daraus, dass die statistische Mechanik nicht vollständig aus der Newtonschen Mechanik abgeleitet werden kann, und fragte sich, ob nicht speziell die Irreversibilität zu den Phänomenen gehört, die wir seit Mehlberg gegebenenfalls als fact-like charakterisieren. Nun liegt Folgendes auf der Hand: Wenn (!!) eine Entität, die gewisse Fähigkeiten besitzt, die der Mensch nicht teilt, in der Lage ist, die Irreversibilität zu umgehen, (!!) dann kann letztere weder ein Naturgesetz ausdrücken, noch aus einem Naturgesetz ableitbar sein [41].

 

Einerseits spielt Maxwells Urdämon die Rolle der hier oben erwähnten Entität. Anderseits beruht die Funktionsmodalität des Urdämons auf teleologischem intelligent design, d.h. auf intelligent design mit einem im Voraus gegebenen Ziel. Es sei hier klargestellt, dass der vorliegende Artikel weder die effektive Funktionsunfähigkeit des Urdämons beanstandet – im Gegenteil – noch versucht, die teleologischen Eigenschaften des Urdämons auf die Evolution zu transponieren. Hier geht darum, darauf hinzuweisen, dass Maxwell – wenn auch unabsichtlich bzw. unbewusst – in intelligent design eine potentielle Erklärung scheinbarer Irreversibilitäts-Verletzungen erblickte. Maxwell interessierte sich meines Erachtens nicht für die biologische Evolution, die in seinen Zeiten ja auch nicht unter dem selben Blickwinkel betrachtet wurde, und wusste auch nichts von der kumulativen Selektion. Global gesehen, wäre es sowieso sinnlos, die ID-Debatte in Maxwells Zeiten zurückzuversetzen. Nun ist es jedoch gerade deshalb interessant, festzustellen, dass ein erstrangiger, allerdings schon rein zeitlich gesehen von der ideologischen ID-Debatte nicht betroffener Physiker spontan an intelligent design als potentielle Erklärung scheinbarer Irreversibilitäts-Verletzungen dachte. Selbstverständlich beweist das Vorausgehende nichts, sollte uns jedoch veranlassen, uns darüber Gedanken zu machen.

 

Wie es auch sei, die Operationsmodalität des Urdämons als solchem beruht auf teleologischem intelligent design. Vom Urdämon zum effektiv operationsfähigen Neo-Dämon übergehend, bleiben wir nach wie vor im teleologischen intelligent design-Bereich. Entziehen wir nun dem Neo-Dämon seine klassisch-teleologische Eigenschaft, d.h. die Eigenschaft, das behandelte System zu einem im Voraus gegebenen, vorhersagbaren Zustand hinzuleiten, und fordern wir von dem so erhaltenen modifizierten Neo-Dämon „nur“ die Fähigkeit, durch kumulative Selektion über die Menge der geringen Fluktuationen eines gegebenen Systems den Komplexitätsgrad des letzteren ständig anzuheben. Was nun das Outcome der Operation des modifizierten Neo-Dämon anbetrifft, beruht es nicht auf klassischer Teleologie, da das Resultat der Operation des modifizierten Neo-Dämons selbst theoretisch nicht vorhersagbar ist. Und trotzdem (!!) ist es keineswegs sicher, dass der modifizierten Neo-Dämon nicht teleologiefrei operiert, wenn es sich auch gegebenenfalls um eine nicht-klassische Form von Teleologie handelt. In der Tat muss der modifizierte Neo-Dämon darauf ausgelegt sein, bei gewissen Systemen – sicherlich nicht bei den nächstbesten – durch kumulative Selektion irgendeine nicht vorhersagbare ansteigende Organisationskomplexität zu bewirken, und der Ausdruck „auf etwas ausgelegt zu sein“ veranlasst uns – ohne im Augenblick etwas zu „beweisen“ – an eine nicht-klassische Form von Teleologie zu denken. Gewiss, aus der Sicht des Mainstream-Ansatzes ist der Ausdruck „auf etwas ausgelegt zu sein“ gerade im vorliegenden Kontext fehl am Platz: Die Wechselwirkung zwischen Zufall und Notwendigkeit, wie Jacques Monod [11] sagte, hätte es von ihrer Natur her nicht nötig, ausgelegt zu sein. Wir werden jedoch progressiv erkennen, dass im Rahmen der kumulativen Selektion die Notwendigkeit einer „Auslegung auf etwas“ objektiv existiert, und zwar als Konsequenz des – allerdings systematisch vernachlässigten – Netzwerkproblems, das wir hier behandeln.

 

Da der modifizierte Neo-Dämon diese Form der kumulativen Selektion ausdrückt, die aus der Mainstream-Sicht die Evolution vorantreibt, stellt sich erst einmal die Frage, ob die nicht hinwegzuleugnende Auslegung des modifizierten Neo-Dämon auf seine Aufgabe auf die ganze Evolution verallgemeinert werden kann bzw. muss.

 

Ein paar Überlegungen zeigen, dass das in der Tat der Fall ist:

Wenn wir von rein mikro-evolutionären Selektionsschritten absehen, die individuell nicht zu ansteigender Organisationskomplexität führen, dann sagt uns gerade die Evolution selbst, dass zahlreiche, über die Zeit verteilte kumulative Selektions-Vorgänge zusammenwirken müssen, um einen bezeichnenden Anstieg von Organisationskomplexität zu verursachen. Allerdings können wir die Gesamtheit dieser über die Zeit verteilten kumulativen Selektions-Vorgänge aufgrund ihres Zusammenwirkens auch als einen modifizierten Mega-Neo-Dämon auffassen. Dann liegt es aber auch auf der Hand, dass der modifizierte Mega-Dämon nur dann einen bezeichnenden Anstieg von Organisationskomplexität verursachen kann, wenn die zahlreichen kumulativen Selektions-Vorgänge, aus denen er global gesehen besteht, entsprechend koordiniert sind. Nun scheint es quasi-unendlich unwahrscheinlich, dass eine solche Koordination durch „reinen Zufall“ zustande kommt. Sollten wir diesen Punkt aus Prinzip beanstanden, dann müssen wir ebenfalls die absurde Idee akzeptieren, dass auch ein x-beliebiger personal computer – unabhängig vom „Zweck“ bzw. „Ziel“ seiner Benutzung – ohne die adäquate Koordination seiner materiellen Komponenten und vor allem seiner logischen Funktionen korrekt arbeiten würde. Und wenn wir diesen Unsinn ablehnen, dann stehen wir vor der folgenden Dichotomie: Entweder gehen wir von der Hypothese 1 aus, dass die Koordination aller zusammenwirkenden Komponenten des Mega-Dämons selbst aus der kumulativen Selektion hervorgegangen ist. Oder wie optieren für die Hypothese 2, dass die besagte Koordination auf einer nicht-klassischen Form von Teleologie beruht, die wir etwas weiter unten präzisieren.

 

Die Hypothese 1 entspricht der Zentralthese des Mainstream-Ansatzes der Evolutionstheorie. Da der Mainstream-Ansatz ausschließlich die kumulative Selektion als Alternative zum „reinen Zufall“ anerkennt, muss – dem Mainstream-Ansatz gemäß – die Koordination des modifizierten Mega-Demons ebenfalls aus der kumulative Selektion hervorgegangen sein. Diese Auffassung erweist sich jedoch gerade aus der Perspektive des Mainstream-Ansatzes als unhaltbar. Die in der Koordination des Mega-Demons involvierten Faktoren, zumindest die biotischen Faktoren, ohne die es aber nicht geht, müssen ebenfalls aus der kumulativen Selektion kommen, und so weiter, und so weiter, bis ins Unendliche stricto sensu. Hier ist zu bemerken, dass unter diesen Umständen die Koordination eines modifizierten Mega-Demons unendlich lang dauern würde. Das wiederum gerät mit der Mainstream-Behauptung [42] in Konflikt, dass die Evolution alle nötige Zeit hätte, um auch mit kleinsten Selektionsschritten so weit zu kommen, wie sie de facto gekommen ist [42].

 

Ein anderer, sich in einer letzten Überarbeitung befindender Artikel vertieft diesen Punkt.

 

Da die Hypothese 1 unhaltbar ist, bleibt nichts anderes übrig, als die Hypothese 2 ohne Voreingenommenheit näher zu betrachten.

 

Kommen wir auf den oben erwähnten personal computer zurück. Offensichtlich müssen dessen Bestandteile adäquat koordiniert sein, damit der Computer – unabhängig vom „Ziel“ bzw. „Zweck“ seiner Benutzung – als solcher überhaupt funktioniert. Auf der Ebene der Menschenwerke beruht das Funktionieren des Computers als solchem auf einem in diese Richtung gehenden, im Voraus definierten Ziel, was bereits eine Sorte von „menschlich betriebener Teleologie“ darstellt. Dabei spielt es keine Rolle, ob der als solcher funktionierende Computer z.B. eine klassisch-teleologische WEASEL- oder eine nicht-teleologische Biomorph-Simulation [36] herunterlaufen lässt. Was das unvorstellbar komplexe, überzeitliche Netzwerk der kumulativen Selektionsfaktoren und Selektionsvorgängen hinter der reellen Evolution anbetrifft – wir nennen das Ganze den Mega-Dämon – erkennen wir auch hier die Notwendigkeit, beim Thema Teleologie v/s Nicht-Teleologie eine klaren Unterschied zu machen zwischen dem Mega-Dämon selbts und dem evolutionären Output der vom Mega-Dämon bewerkstelligten Operationen. Auch wenn die Evolution „offen“ bzw. im klassischen Sinne teleologiefrei ist, so hat das nichts zu tun mit der Frage, wie die adäquate Konfiguration des Mega-Dämons, ohne die die Evolution einfach funktionsunfähig wäre, überhaupt entstehen konnte. Da die Hypothese einer ausschließlich aus der kumulativen Selektion hervorgegangenen adäquaten Konfiguration des Mega-Dämons zu Widersprüchen führt, bleibt keine andere Alternative für die adäquate Konfiguration des Mega-Dämons als das Eingreifen einer nicht-klassischen Form von Teleologie. Nennen wir letztere „Teleologie zweiten Grades.“ Der weiter oben erwähnte, sich noch in der Überarbeitung befindende Artikel vertieft auch diesen Begriff. Hier begnügen wir uns mit folgender Feststellung.

 

Die Akzeptation der Notwendigkeit von Teleologie zweiten Grades bei der adäquaten Konfiguration des Mega-Dämons bedeutet auch die Akzeptation der Unmöglichkeit, die Kompatibilität zwischen Evolution und Irreversibilität auf der Basis von rein naturalistischen Ansätzen zu beweisen. Anderseits ist Notwendigkeit von Teleologie zweiten Grades bei der adäquaten Konfiguration des Mega-Dämons auch nur eine Hypothese, deren Ablehnung jedem frei steht. Allerdings wäre eine solche Ablehnung gleichbedeutend mit der Akzeptation der widersprüchlichen Hypothese einer aus der kumulativen Selektion hervorgegangenen adäquaten Konfiguration des Mega-Dämons. Unter diesen Umständen bleibt die Behauptung der Kompatibilität zwischen Evolution und Irreversibilität im besten Falle ein nicht fundiertes Dekret.

 

Nachdem wir uns mit dem Ursprung der adäquaten Konfiguration des Mega-Dämons beschäftigt haben, kommen wir jetzt zum „noch fundamentaleren Problem“ der Herkunft des Mega-Dämons als solchem. Wenn letzterer ein natürliches, nicht von Menschenhand geschaffenes Wesen ist, wie möge er dann entstanden sein?

 

Die Antwort scheint auf der Hand zu liegen. Natürliche modifizierten Neo-Dämonen, wie sie ja in der Natur existieren, wären selbst aus der Evolution hervorgegangen, via kumulative Selektion [9], [10],[11],[43]. Wenn Bakterien, Fische, Frösche, Reptilien, Vögel, Säugetiere aus aus der Evolution hervorgegangen sind, warum dann nicht auch natürliche Maxwellsche Dämonen?

 

Nun, so einfach ist es nicht. Beim Entstehen von Bakterien, Fischen, Fröschen usw. hat die kumulative Selektion als wesentlicher Faktor mitgewirkt. Dagegen modellieren modifizierte Neo-Dämonen die kumulative Selektion selbst, und zwar im Sinne des Mainstream-Ansatzes. Daraus ergibt sich bereits ein Risiko von Zirkularität. Eine etwas vertiefte Untersuchung dieses Punktes zeigt,dass da Situation sich noch schwieriger erweist, als man es auf Anhieb erraten könnte.

 

Der Urdämon in Maxwells Vorstellung ist, wie schon gesagt, bedeutend komplexer als das, was er im Gedankenexperiment bewerkstelligt. Bei einem Neo-Dämon, der ansonsten unter den Bedingungen des Gedankenexperiments operiert, dürfte das nicht anders sein, im Gegenteil. Es wäre auch schwierig anzunehmen, dass die nicht-teleologischen Funktionsmodalitäten der modifizierten Neo-Dämonen ausreichen würden, um es den letzteren zu ermöglichen, über ihre eigene intrinsische Komplexität hinausgehende Komplexitäten zu erzeugen. R. Dawkins behauptet bekanntlich, dass „'jeglicher Gott', der in der Lage wäre, mit Hilfe von intelligent design etwas derartig komplexes wie die DNA/Proteinreplikationsmaschine zu konfigurieren, selbstverständlich (of course) mindestens dieselbe Organisationskomplexität besitzen müsste wie die Maschine selbst.“ [36] (Meine eigene Übersetzung und Unterstreichung). Auch wenn Dawkins' Vorstellung von „Gott“ möglicherweise etwas rudimentär wirken könnte, drückt das Zitat dennoch die tiefe Intuition aus, dass ein Dispositiv von einer gegebenen Komplexität ohne äußere Einwirkung nicht fähig ist, Komplexität zu erzeugen, die höher wäre als die eigene. Natürlich bleibt zu wiederholen, dass die Irreversibilität nur eine – wenn auch bis auf Weiteres nie widerlegte – Erfahrungstatsache darstellt, was bei Verallgemeinerungen in diesem Bereich Vorsicht gebietet. Jedoch muss auch Folgendes hinzugefügt werden. Wenn wir bei der Irreversibilität die Möglichkeit von bezeichnenden, d.h. von beständigen, über kleine Fluktuationen hinausgehenden Ausnahmen in Betracht ziehen, dann gilt das auch für die Möglichkeit des Perpetuum Mobile. Einigen wir uns also auf eine vorsichtige Minimal-Lösung: Solange keine Widerlegung der Irreversibilität als Erfahrungstatsache vorliegt, ist anzunehmen, dass die Komplexität eines modifizierten Neo-Dämons höher sein muss als die von diesem Neo-Dämon im Bezug auf das von ihm behandelten System bewirkte Komplexität.

 

Hieraus entsteht allerdings eine weitere Schwierigkeit für den Mainstream-Ansatz der Evolutionstheorie. Laut dem Mainstream-Ansatz bildet kumulative Selektion den einzigen Antrieb der Evolution als ansteigende Organisationskomplexität. Besagte kumulative Selektion lässt sich wiederum hinreichend durch den modifizierten Neo-Dämon modellieren. Da jedoch der modifizierte Neo-Dämon komplexer sein muss als die Komplexität, die er hervorbringt, ist das notwendigerweise auch der Fall für die kumulative Selektion, wie sie der Mainstream-Ansatz im Rahmen der Evolution versteht. Bis hier sind vielleicht noch keine Schwierigkeiten zu erkennen. Aber betrachten wir jetzt die Menge der von der Evolution hervorgebrachten Organismen, die zu einem bestimmten Zeitpunkt das absolute Maximum von Organisationskomplexität bildeten, das die Evolution bis zu diesem Zeitpunkt je hervorgebracht hatte. Nun erforderte das Entstehen eines jeden dieser Organismen einen mit Hilfe des modifizierten Neo-Dämons modellierbares kumulatives Selektions-Dispositiv mit mindestens einem Faktor, dessen Organisationskomplexität die des hervorgebrachten Organismen übertraft. Dieser Faktor konnte jedoch zum entsprechenden Zeitpunkt nicht zur Verfügung stehen, da der hervorgebrachte Organismus ja zu diesem Zeitpunkt das absolute Maximum von Organisationskomplexität ausdrückte, das die Evolution bis zu diesem Zeitpunkt je hervorgebracht hatte.

 

Anders gesagt:

Wenn (!!) – wie vom Mainstream-Ansatz behauptet – kumulative Selektion den einzigen Antrieb der Evolution als ansteigende Organisationskomplexität darstellt, dann (!!) erfordert das Entstehen einer zuvor noch nicht erreichten Organisationskomplexität mindestens einen aus der Evolution hervorgegangenen evolutionären Faktor, der der Evolution irgendwie voraus ist.

 

Ein Artikel von G. Boël et al. [43] zeigt – vermutlich unbeabsichtigt – dass das Vorausgehende nicht an den Haaren herbeigezogen ist:

Laut den Autoren wird die effektive Bearbeitung von Information durch biologische Systeme gewöhnlich auf eine vage, oberflächliche Art und Weise beschrieben. Um dieser Sache näher zu kommen, beschäftigen sich G. Boël und Kollegen mit biologischen Funktionen oder Kombinationen von biologischen Funktionen, deren Wirken innerhalb einer Zelle Spezifizierungen der neo-dämonischen Funktionsmodalität darstellt. G. Boël und Kollegen beginnen damit, aufzulisten, was von den betroffenen Neo-Dämonen „erwartet“ [43] werden muss. Nun, selbst als Grundeinheit des Lebens ist eine Zelle eine unvorstellbar komplexe, mit einer „Fabrik“, und genauer gesagt, mit einer evolvierenden Fabrik [44] vergleichbare Angelegenheit. Um zu funktionieren, erfordern vor allem evolvierende Fabriken Management, und das Gleiche gilt auch für Zellen. Zitieren wir eine kleine Auswahl unter den den Anforderungen, denen die in einer Zelle wirkenden Neo-Dämonen laut Boël und Kollegen [43] gerecht werden müssen. Eine erste Aufgabe der Neo-Dämonen besteht schon einmal darin, intrazelluläre Interaktionen zu managen. Dazu gehört unter anderem die Fähigkeit, gewisse Symmetrien zu beachten [43], Energiezustände innerhalb ihrer akzeptablen Grenzwerte zu halten [43], ein akkurates Timing der verschiedenen zellulären Vorgänge zu definieren und in die Tat umzusetzen [43], beim Materiefluss brauchbare und degradierte/unbrauchbare Materie zu unterscheiden [43], und vor allem für das Überleben und korrekte Funktionieren der Zelle die entsprechenden Ziele festzustellen [43]. Es sei bemerkt, dass es dabei nicht um teleologische Ziele geht, sondern eher um die Fähigkeit, diese Ziele angesichts der Zwangslagen, denen die Zelle gegenübersteht, zu determinieren. Kurz gesagt, müssen die Neo-Dämonen, wie es bereits der Titel des Artikels von Boël et al. ausdrückt, als Informations-Manager im weiteren Sinne fungieren [43]. Auf ungefähr 15 Seiten des 33-seitigen, zweispaltigen Artikels sind dann die biologischen Funktionen aufgelistet, die innerhalb der Zellen „(...) regelrecht als Verkörperung von Maxwells Metapher angesehen werden können.“ [43] (meine eigene Übersetzung).

 

Nun, angesichts der bereits unvorstellbaren Komplexität einer Zelle müssen wir als Tatsache auffassen, dass sowohl das Innenleben dieser Zelle als auch deren Austauschbeziehungen mit ihrer Umwelt von Entitäten gesteuert werden, die den hier oben angeführten, auf Boël und Kollegen [43] zurückgehenden Anforderungen genügen.

 

Jedoch, wenn wir den Mainstream-Ansatz der Evolutionstheorie vertreten, also behaupten, dass die Zelle einschließlich der sie steuernden Entitäten aus der kumulativen Selektion und nur aus der kumulativen Selektion hervorgegangen ist, dann sehen wir uns wieder mit einem charakterisierten Widerspruch konfrontiert.

 

Die Zelle bildet die Grundeinheit des Lebens als solchem. Aber mit dem Entstehen der Zelle beginnt auch die eigentliche Evolution, d.h. die Evolution, die ihre präbiotische Phase bereits hinter sich hat.

 

Betrachten wir also eine Zelle im Rahmen der anfänglichen Evolution, die noch keine höhere Organisationskomplexität als die der besagten Zelle hervorgebracht hat. Trotz ihrer eigenen, sehr hohen intrinsischen Komplexität werden wir von dieser Zelle der evolutionären Anfangszeiten noch keinerlei Fähigkeiten von Informations-Management erwarten. Das hat die kumulative Selektion ja erst viel viel später generiert. Die das Informations-Management meisternden Neo-Dämonen, auf die auch Zellen der evolutionären Anfangszeiten angewiesen waren, konnten also nicht aus der kumulativen Selektion hervorgegangen sein, da in der betrachteten Zeitspanne die besagte Zelle die damals existierende höchste Organisationskomplexität ausdrückte. Hiermit finden wir den oben genannten Paradox wieder. Wenn – wie vom Mainstream-Ansatz behauptet – kumulative Selektion den einzigen Antrieb der Evolution als ansteigende Organisationskomplexität darstellt, dann erfordert das Entstehen einer zuvor noch nicht erreichten Organisationskomplexität mindestens einen evolutionären Faktor, der der Evolution irgendwie voraus ist.

 

Bekanntlich haben einfachere und widerspruchsfreie Hypothesen größere Chancen auf Gültigkeit als kompliziertere und in ihren Konsequenzen widersprüchliche Hypothesen. Die Hypothese der Zellen-Steuerung unter der Mitwirkung von intelligent design zeichnet sich gegenüber der Mainstream-Hypothese durch Einfachheit und vor allem Widerspruchslosigkeit aus.

 

Erinnern wir noch daran, dass von Menschenhand geschaffene Neo-Dämonen wie alle Information verarbeitende künstliche Dispositive im Wesentlichen Boolesche Algebra und demzufolge die Konsistenz der ganzen Mathematik voraussetzen. Wie ist das jetzt mit natürlichen Neo-Dämonen?

 

Selbstverständlich muss eine solche Frage mit äußerster Vorsicht behandelt werden. Schon weil der erkenntnistheoretische Status der Mathematik bis auf Weiteres umstritten ist und vermutlich auch bleibt, wäre es wissenschaftlich gesehen voreilig, zu dieser Frage kategorische Behauptungen aufzustellen, um was es sich bei letzteren auch handeln möge. Immerhin, da von Menschenhand geschaffenen Neo-Dämonen nun einmal besagte mathematische Grundlagen voraussetzen, käme die Annahme, dass das bei natürlichen Neo-Dämonen nicht bzw. nicht unbedingt der Fall sei, der dogmatisch dekretierten Legitimierung einer wissenschaftlich nicht-legitimierten Irreversibilitäts-Verletzung gleich. Anderseits gilt es heutzutage als absolut plausibel, scheinbare Irreversibilitäts-Verletzungen dadurch zu erklären, dass das betroffene System immaterielle Information empfängt. Dabei besteht keinerlei Grund, die gegebenenfalls für das Funktionieren dieses Systems intrinsisch erforderlichen mathematischen Grundlagen von solcher immateriellen Information auszuschließen. Natürliche Neo-Dämonen sind leistungsfähiger als unsere leistungsfähigsten Computer [43]. So liegt die Hypothese nahe, dass natürliche Neo-Dämonen mathematische Grundlagen benötigen, die die von künstlichen Neo-Dämonen erforderten mathematische Grundlagen im Bezug auf Flexibilität, Überlagerung, Überlappung, Verschränkung usw. bedeutend übertreffen. Hier könnten uns vielleicht bereits vorliegende oder kommende Ergebnisse der dem Quantencomputer zugewandten Computerwissenschaften einige Pisten eröffnen [45]. Das überschreitet jedoch den Untersuchungsbereich dieses Artikels.

 

Um voreilige Spekulationen zu vermeiden, verbleiben wir bei der vorliegenden Fragestellung als solcher, jedoch nicht ohne das wissenschaftstheoretische Gewicht der alleinigen Präsenz dieser Fragestellung zu unterstreichen. Genauer gesagt, betonen wir in erster Linie, dass, solange besagte Fragestellung keine endgültige Antwort erhalten hat, jegliche kategorische Stellungnahme zur Notwendigkeit bzw. Nicht-Notwendigkeit mathematischer Grundlagen bei Irreversibilitäts-Bilanzen verfrüht bleibt. Wiederholen wir noch einmal, dass der Austausch von immaterieller Information (i) zu den möglichen, potentiellen Interaktionen nicht-isolierter Systeme gehört und (ii) gegebenenfalls bei der wissenschaftlichen Legitimierung von scheinbaren Irreversibilitäts-Verletzungen mitwirkt. Selbstverständlich muss zugegeben werden, dass die effektive Rolle – bzw. „nicht-Rolle“ – mathematischer Gebäude bei der kumulativen Selektion das Objekt „metaphysischer Theorien“ ist, deren Ablehnungen jedoch per definitionem ebenfalls den Status „metaphysischer Theorien“ haben. Es ist nicht auszuschließen, dass natürliche kumulative Selektion in der Tat intrinsisch mathematische Grundlagen benötigt. Da das bei künstlichen, auf der Basis der kumulativen Selektion operierenden Neo-Dämonen – und selbst bei Maxwellschen Urdämonen – der Fall ist, müssten wir wohl sehr fragliche, an den Haaren herbeigezogene Hypothesen – genauer gesagt, ad-hoc-Hypothesen – aufstellen, um zu „beweisen“, dass die erheblich komplexere natürliche kumulative Selektion über die Notwendigkeit mathematischer Grundlagen hinwegkommt. Wie dem auch sei, können wir keineswegs behaupten, dass wir im Bezug auf diese Fragestellung Erkenntnis stricto sensu besitzen.

 

Gerade deshalb aber, weil wir einerseits im Bezug auf diese Fragestellung keine konsolidierte Antwort besitzen, während anderseits diese Fragestellung nicht beiseite gefegt werden kann, gerade deshalb wären im Prinzip die Vertreter des Mainstream-Ansatzes der Evolutionstheorie aus Gründen der Vorsicht dazu angehalten, die ihnen nachteiligere Hypothese anzunehmen, d.h. die Hypothese, dass das Hintergrunds-Netzwerk einer effektiv funktionierenden natürlichen kumulativen Selektion mathematische, die empirische Erfahrung transzendierende Grundlagen beinhalten muss.

 

Unter diesen Bedingungen ist es wissenschaftlich nicht legitim, wenn der Mainstream-Ansatz der Evolutionstheorie dekretiert, dass die kumulative Selektion in ihrer naturalistischen Auffassung allein ausreicht, um im Rahmen der Evolution die Irreversibilität zu umgehen.

 

3. Rekapitulation

 

3.1 Fazit

Selbst eine noch nicht sehr vertiefte Untersuchung der angeblichen Kompatibilität zwischen Evolution und Irreversibilität zeigt, dass viele mit dieser Untersuchung verbundenen, wesentlichen Fragestellungen aus der naturalistischen Perspektive keine konsolidierten Antworten besitzen, während gelegentlich unüberwindliche Widersprüche und sonstige Inkonsistenzen auftreten.

 

3.2 Kurzrekapitulation

Wenn die Irreversibilität auf ihren rein thermodynamischen Ausdruck beschränkt werden könnte, und wenn die Evolution ausschließlich auf der Basis rein thermodynamischer Faktoren als scheinbare Irreversibilitäts-Verletzung legitimierbar wäre, dann würde die Versorgung unserer Erde als nicht-isoliertem System mit – allerdings adäquat assimilierter – Sonnenenergie ausreichen, um die Kompatibilität zwischen Evolution und Irreversibilität zu fundieren. Die Evolution kann jedoch nicht ausschließlich auf thermodynamische Faktoren reduziert werden. Mit Hilfe eines weiterentwickelten Maxwellschen Dämons ist es leicht zu zeigen, dass die heutzutage klassischen, auf den Dimensionen der thermodynamischen Entropie und der Information beruhenden Irreversibilitäts-Bilanzen unter anderem mit der akkumulierten intrinsischen Komplexität aller am entsprechenden Vorgang beteiligten Faktoren vervollständigt werden muss. Dabei erweist sich, dass besagte intrinsische Komplexität höher sein muss als der vom Maxwellschen Dämon erreichte Ordungsgewinn.

 

Anderseits ist die Photosynthese als unersetzlicher Faktor der Sonnenenergie-Assimilierung selbst aus der zur erklärenden Evolution hervorgegangen, und zwar unter derartig unwahrscheinlichen Bedingungen, dass wir darüber so gut wie gar keine Kenntnisse im strengen Sinne besitzen. Beide Punkte genügen bereits, die gängigen Gewissheiten über die angebliche Kompatibilität zwischen Evolution und Irreversibilität in Frage zu stellen.

 

Das, was dieser Artikel das Hintergrund-Netzwerkproblem oder kurz Netzwerkproblem nennt, generiert noch tiefgründigere Schwierigkeiten. Es ist leicht zu zeigen, dass sich hinter jedem betrachteten biotischen Selektionsfaktor ein weitverzweigtes Netzwerk von Faktoren verbirgt, das mindestens die ganze Evolution bis zum betrachteten Selektionsfaktor beinhaltet. Allein daraus folgt, dass auch der kleinste Evolutionsschritt ohne Komplexitätsgewinn mit einer ins Unendliche hin tendierende Komplexität bezahlt werden muss.

 

Eine etwas vertiefte Analyse dieses Punkts führt zu paradoxen Konsequenzen, darunter die Notwendigkeit von unendlich lang dauernden Vorgängen und einer Evolution, die sich immer einen Schritt voraus ist.

 

Schließlich und endlich stößt die Erstellung einer evolutionären Irreversibilitätsbilanz, die das Hintergrundnetzwerk berücksichtigt, auf mathematische Grundlagenfragen, die bis auf Weiteres nicht gelöst sind und vermutlich ungelöst bleiben.

 

3.3 Ausgearbeitete Rekapitulation 

Wenn auch der erste Hauptsatz der Thermodynamik in seinen strengen Clausius- oder Boltzmann-Formulierungen unbestritten nur für isolierte Systeme gilt, so reicht das nicht aus, um wissenschaftlich legitim die Kompatibilität zwischen der Evolution und der verallgemeinerten Irreversibilität zu behaupten.

 

Herkömmliche, im Bezug auf nicht-isolierte Systeme erstellte Irreversibilitäts-Bilanzen sind mindestens aus folgenden Gründen unvollständig. Einerseits beschränken sich diese Bilanzen auf den Austausch zwischen den betroffenen nicht-isolierten Systemen von Energie und/oder Materie und/oder Information, vergessen dabei aber (i) die intrinsische Komplexität aller bei den entsprechenden Irreversibilitäts-Verletzungen mitwirkenden Disposiven, und (ii) die hochkomplexen Netzwerke, die sich hinter den von außen her auf das betrachtete System einwirkenden Faktoren verbergen. Anderseits (iii) fassen diese Bilanzen besagte Dispositive und/oder Faktoren als „gegeben“ auf. Wenn wir bereit sind, diese Sorglosigkeit zu teilen, dann mögen Evolution und Irreversibilität uns kompatibel erscheinen.

 

Wenn wir jedoch herkömmliche, im Bezug auf nicht-isolierte Systeme erstellte Irreversibilitäts-Bilanzen auf die traditionell vernachlässigten Punkte (i) und (ii) erweitern und dabei keine bei einer scheinbaren Irreversibilitäts-Verletzungen mitwirkende Dispositive/Faktoren als „gegeben“ auffassen, sondern uns eher fragen, wie letztere entstehen konnten, dann ergibt sich daraus folgende Feststellung: Gerade die vorauszusetzende „Nicht-Isoliertheit“ interagierender Systeme generiert Schwierigkeiten, die die angebliche Kompatibilität zwischen Evolution und Irreversibilität schwer unterminieren.

 

Es ist nicht immer leicht, die oben genannten Probleme (i) der intrinsische Komplexität, (ii) der hochkomplexen versteckten Netzwerke und (iii) der missbräuchlich angenommenenGegebenheit“ wesentlicher Faktoren streng auseinanderzuhalten. Alle diese untereinander komplementären Punkte überlappen bzw. überlagern sich.

 

Die Behandlung der per se verschiedenen Punkte (i) und (iii) folgt gewissermaßen einer selben Logik. In beiden Fällen handelt es sich um ein effektiv betrachtetes System bzw. um einen effektiv betrachteten Vorgang. Dagegen unterscheidet sich Punkt (ii) wesentlich von den beiden anderen, indem es hier um versteckte Organisationskomplexität, die gerade durch ihre „Verstecktheit“ die Irreversibilitäts-Bilanz effektiv betrachteter Systeme bzw. Vorgänge verfälscht.

 

Das Vorausgehende führt zu einer Gliederung in zwei Abschnitten, wo Abschnitt 1 auf beide Punkte (i) und (iii) fokussiert, und Abschnitt 2 auf Punkt (ii). Hierbei dürfen allerdings dem Verb „fokussieren“ keine Exklusivitätsansprüche unterstellt werden.

 

Anhand eines im Text definierten „Maxwellschen Neo-Dämons“ verdeutlicht Abschnitt 1 zunächst das Problem der intrinsischen Komplexität. Im Gegensatz zum nicht-operationellen Maxwellschen Urdämon erhält der Neo-Dämon jegliche für seine Aufgabe erforderliche Energie, operiert aber ansonsten genau wie in Maxwells ursprünglichem Gedankenexperiment. Allerdings ist es klar, dass der Neo-Dämon, abgesehen von seiner Energieversorgung, auch eigene Fähigkeiten mitbringen muss, die eine hohe intrinsische Komplexität des Dämons ausdrücken. Bei jeder Irreversibilitäts-Bilanz des Gedankenexperiments, die die erforderliche intrinsische Komplexität des Dämons vernachlässigt, fehlt sichtlich ein wesentliches Element. Das potentielle Gegenargument, dass erweiterte Irreversibilität-Bilanzen im Sinne Brillouins nicht nur thermodynamische Entropie- sondern auch Informations-Variationen berücksichtigen, und dass die intrinsische Komplexität des Dämons als Ausdruck von Information zu interpretieren ist, kann nicht halten, und zwar aus zwei Gründen. Erstens gehen bei Brillouinschen Irreversibilitäts-Bilanzen besagte Informations-Variationen auf Austauschbeziehungen zwischen dem betrachteten System und seiner Umwelt zurück, während intrinsische Komplexität ipso facto intrinsisch ist. Zweitens muss intrinsische Komplexität zumindest während des betrachteten Vorgangs konstant bleiben und hat mit Informations-Variationen nichts zu tun.

 

Als nächstes kommt Abschnitt 1 – etwas technischer und die Evolution näher betreffend – auf das „Argument“ zurück, dass unsere Erde mehr als genug Sonnenenergie erhält, wodurch die Evolution als scheinbare Irreversibilitäts-Verletzung legitim „erklärt“ wäre. Abschnitt 1 erinnert daran, dass die Sonnenenergie-Versorgung unserer Erde zwar eine notwendige, jedoch nicht ausreichende Vorbedingung zur Evolution darstellt und weist vor allem darauf hin, dass nur adäquat assimilierte Sonnenenergie für das Leben und dessen Evolution brauchbar ist. Wenn (!!) wir nun den als solchen gut bekannten Assimilationsfaktor – die Sauerstoff-Photosynthese – als „gegeben“ auffassen könnten, dann wäre die Evolution als scheinbare Irreversibilität wenigstens zum Teil wissenschaftlich legitimiert. Die oxygene Photosynthese kann jedoch nicht als „gegeben“ aufgefasst werden. Unsere Erkenntnis – insofern dieser Begriff überhaupt relevant ist – der Evolution in ihrer präbiotischen Phase beinhaltet unvermeidliche, jedoch fragliche, schwer umstrittene Hypothesen, die das gesamte Gebäude brüchig machen. Und selbst im Rahmen der eigentlichen, mit der Zelle als solcher beginnenden Evolution, steht die Rekonstruktion des Werdegang der Cyanobakterien von ihren Ursprüngen bis zum Great Oxidation Event“ (GOE) Widersprüchen und anderen Inkonsistenzen gegenüber. Solange das Entstehen der als Phänomen selbstverständlich sehr gut verstandenen oxygenen Photosynthese nicht geklärt sind, ist das allein bereits ein Grund, dass die Evolution bis auf Weiteres keineswegs wissenschaftlich als scheinbare Irreversibilitäts-Verletzung legitimiert werden kann. 

 

Um das Wesen und Ausmaß des Netzwerkproblem zu veranschaulichen, und um einen Eindruck von den Problemen zu vermitteln, die daraus angesichts der Kompatibilität zwischen Evolution und Irreversibilität entstehen, bedient sich Abschnitt 2 einer einfachen Metapher. Wenn wir uns zum Beispiel fragen, wie ein klassisches Uhrwerk als scheinbare Irreversibilitäts-Verletzung aus der inerten Materie entstehen konnte, dann scheint es vielleicht so, dass mit der „auf der Hand liegenden“ Antwort – „dank eines qualifizierten Uhrmachers“ – „alles“ gesagt sei. Eine etwas nähere Betrachtung zeigt jedoch, dass das keineswegs der Fall ist. Um seinen Beruf auszuüben, braucht der Uhrmacher eine Ausbildung, was bereits auf dem Gebiet der Uhrmacherei und auf anderen Gebieten ausgebildete Leute voraussetzt, also Generationen von Spezialisten, deren fachliches Können manchmal auf die Vorgeschichte zurückgeht. Aber vor allem sind diese Spezialisten als Menschenwesen aus der Evolution in ihrem höchsten Stadium hervorgegangen. Das Entstehen des Uhrwerks setzt demzufolge die gesamte Evolution bis zu ihrem höchsten Stadium voraus. Wenn wir bedenken, dass innerhalb einer von kumulativer Selektion angetriebener Evolution jeglicher biotischer Selektionsfaktor selbst das Resultat eines kumulativen Selektionsvorgangs ist, dessen biotische Faktoren auch wieder auf kumulative Selektionsvorgänge zurückgehen, und so weiter und so weiter, dann vermittelt das einen ersten Eindruck von den Ausmaßen der Netzwerke, die sich bei scheinbaren Irreversibilitäts-Verletzungen hinter den von außen her auf das betrachtete System einwirkenden Faktoren verstecken. Die scheinbare Irreversibilitäts-Verletzung < inerte Materie → entstandenes Uhrwerk > ist durch eine sichtlich bedeutendere, die Evolution in ihrem Endstadium enthaltende Irreversibilität-Verletzung „bezahlt.“

 

Nach dieser ersten Veranschaulichung des Netzwerkproblems kommt Abschnitt 2 auf den Maxwellschen Neo-Dämon zurück, schon deshalb, weil letzterer in einer etwas modifizierten Form (siehe unten) die kumulative Selektion – so wie sie der Mainstream-Ansatz sieht – im Wesentlichen modelliert. Es besteht also eine bezeichnende Wahrscheinlichkeit, dass wir eventuelle, angesichts des Gedankenexperiments auftretende Schwierigkeiten innerhalb des Mainstream-Modells der kumulativen Selektion wiederfinden.

 

Abschnitt 2 behandelt den Neo-Dämon zuerst als von Menschenhand geschaffenes informationstechnologisches Dispositiv und dann als natürliche Entität, wie solche ja durchaus in der Natur vorkommen.

 

Das Entstehen eines jeglichen Neo-Dämons als Menschenwerk erfordert ein Netzwerk, das dem der Uhrmacher-Metapher in diesem Sinne äquivalent ist, dass es die gesamte Evolution in ihrem höchsten Stadium beinhaltet. Allerdings transzendiert der Neo-Dämon auch die Uhrmacher-Metapher. Da der von Menschenhand geschaffene Neo-Dämon in einem informationstechnologischen Dispositiv besteht, beruht sein Funktionieren intrinsisch auf der konsistent in die Gesamtmathematik eingebetteten Boolschen Algebra. Mit diesem Punkt eröffnet sich eine neue Dimension abgrundtiefer Problemstellungen, die der Kompatibilität zwischen Evolution und Irreversibilität gegenüberstehen. Allerdings geht Abschnitt 2 auf diesen Punkt erst im Bezug auf natürliche Neo-Dämonen etwas näher ein.

 

Bevor Abschnitt 2 sich mit natürlichen Neo-Dämonen beschäftigt, benötigen letztere eine gewisse Modifikation, so dass dadurch die kumulative Selektion im Sinne des Mainstream-Ansatzes ausreichend modelliert wird. Maxwells Urdämon funktioniert aufgrund von Teleologie. Bisher hat dieser Artikel der Einfachheit zuliebe auch dem Neo-Dämon ein im Voraus gegebenes Ziel zugestanden. Die Untersuchung der nach Mainstream-Maßstäben aus der Evolution hervorgegangenen und/oder bei der Evolution mitwirkenden Dämonen erfordert jedoch ein teleologiefreies Dämonen-Modell. Wie der Maxwellsche Urdämon und der Neo-Dämon operiert der modifizierte Neo-Dämon aufgrund der kumulativen Selektion. Die vom modifizierten Neo-Dämon generierte, ansteigende Organisationskomplexität drückt sich jedoch in einer unvorhersehbaren Weise aus. Aus Gründen der terminologischen Einfachheit steht ab jetzt „der modifizierte Neo-Dämon“ für „der modifizierte natürliche Neo-Dämon.“

 

Indem der modifizierte Neo-Dämon die kumulative Selektion nach Mainstream-Maßstäben modelliert, modelliert er auch die Schwierigkeiten, die sich daraus dem Mainstream-Ansatz der Evolutionstheorie ergeben.

 

Ganz abgesehen von der Frage, ob ein teleologiefreier modifizierter Neo-Dämon überhaupt funktionieren kann, benötigt das Entstehen des letzteren „aus der Evolution“ ein Netzwerk, das sich gegenüber dem vom Neo-Dämon als Menschenwerk erforderten Netzwerk zumindest analog erweist. Alle innerhalb des modifizierten Neo-Dämons fungierende biotische Faktoren sind selbst aus der Evolution entstanden. Also versteckt sich hinter jedem modifizierten Neo-Dämon ein Netzwerk, das die Evolution beinhaltet, und zwar in ihrem Stadium, das dem komplexesten Faktor innerhalb des Dämons entspricht. Jeglicher von einem modifizierten Neo-Dämon bewirkte Komplexitätsgewinn setzt also eine unvorstellbar höhere Hintergrundkomplexität voraus, was darauf hindeutet, dass kumulative Selektion allein nicht ausreicht, um die Irreversibilität zu umgehen.

 

Ferner bleibt es unklar, wie die alleinige Akkumulation, durch einen modifizierten Neo-Dämon, kleinster, rein mikro-evolutionärer, also von Komplexitätsgewinn nicht betroffener Selektionsschritte zu höherer Organisationskomplexität führen kann. Auch dies weist auf ein Problem hin, das der Mainstream-Ansatz bis auf weiteres nicht gelöst hat.

 

Hierzu kommt folgende Schwierigkeit. Eine über rein mikro-evolutionäre Selektionsschritte hinausgehende kumulative Selektion in der Natur setzt das Zusammenwirken zahlreicher, über weite Zeiträume verteilte Selektionsvorgänge voraus. Um die kumulative Selektion im Rahmen der Evolution zu modellieren, muss der modifizierte Neo-Dämon dieses Zusammenwirken adäquat „verwalten.“ Ein einfacher Ansatz wäre, diesen Dämon als einen überzeitlichen „Megadämon“ aufzufassen, dessen unvorstellbar zahlreiche zeitlich verteilten Komponenten selbst modifizierte Neo-Dämonen sind. Allerdings muss dabei davon ausgegangen werden, dass diese Komponenten so koordiniert sind, dass der Megadämon überhaupt operieren kann, und hiermit landen wir wieder bei notwendiger Teleologie, obwohl es hier um eine Version der Teleologie geht, die sich von der „gängigen“ Version im Wesentlichen unterscheidet. Ein sich noch in der Überarbeitung befindender Artikel nennt diese nicht-klassische Teleologie „Teleologie zweiten Grades.“ Sollten wir jedoch aus Prinzip diese Teleologie zweiten Grades ablehnen, dann müssen wir ebenfalls vorgeben, dass ein gängiger personal computer – unabhängig vom „Zweck“ bzw. „Ziel“ seiner Benutzung – auch ohne die adäquate Koordination seiner Komponenten funktionieren würde.

 

Die vermutlich größte Schwierigkeit ergibt sich aus einem Grundprinzip, das jegliche von einem ursprünglichen oder veränderten Maxwellschen Dämon bewirkte scheinbare Irreversibilitäts-Verletzung betrifft: Die Komplexität eines modifizierten Neo-Dämons muss höher sein als die von diesem Neo-Dämon im Bezug auf das von ihm behandelten System bewirkte Komplexität, und das gilt selbstverständlich auch für den modifizierten Neo-Dämon. Daraus folgt allerdings ein schwerwiegender Widerspruch: Wenn die Evolution ausschließlich von der kumulativen Selektion im Sinne Mainstream-Ansatzes der Evolutionstheorie angetrieben wird, dann kann die Evolution nur dann eine zuvor noch nicht erreichte Organisationskomplexität hervorbringen, wenn spätestens zum gleichen Zeitpunkt bereits mindestens eine aus der Evolution hervorgegangene, noch höhere Organisationskomplexität existiert.

 

Der folgende Punkt illustriert das Vorausgehende:

Boël und Kollegen erwarten von gewissen Funktionen innerhalb jeglicher Zelle nicht mehr und nicht weniger als information management im Sinne der Informationstheorie. Das führt jedoch zu einem Paradoxon. In der Anfangszeit der eigentlichen, mit der Zelle beginnenden Evolution stellte die Zelle ipso facto die höchste effektiv erreichte biologische Organisationskomplexität dar. Auch wenn wir einerseits keineswegs die bereits unglaubliche Komplexität einer Zelle bezweifeln, werden wir anderseits von dieser Zelle allein nicht die für Informations-Management erforderlichen Fähigkeiten erwarten. Da aber die Zelle in der Tat gewissermaßen als Trägerin oder Support jener Fähigkeiten fungiert, stehen wir vor folgender Entscheidung: Entweder müssen wir annehmen, dass die eigentliche, in ihrer Anfangszeit auf Zellen beschränkte Evolution trotzdem damals schon über ultraleistungsfähige Selektionsfaktoren verfügte, die in der Lage waren, für Informations-Management vorauszusetzende Fähigkeiten hervorzubringen. Oder wir akzeptieren, dass die Evolution nicht nur intern von der kumulativen Selektion angetrieben wird, sondern auch – und zwar im Wesentlichen – von außerhalb kommende, überzeitliche Ordnung bzw. Organisation bewirkende Faktoren benötigt. 

 

Abschnitt 2 endet mit der Frage, ob die offenkundige Notwendigkeit mathematischer Grundlagen bei von Menschenhand geschaffenen Neo-Dämonen auch für natürliche, aus der Evolution hervorgegangene modifizierte Neo-Dämonen gilt. Dies a priori abzustreiten hieße, eine wissenschaftlich nicht als scheinbar legitimierte Irreversibilitäts-Verletzung dogmatisch, also missbräuchlich zu legitimieren. Natürliche Neo-Dämonen sind intrinsisch unvorstellbar komplexer als von Menschenhand geschaffene Neo-Dämonen und bewirken auch unvorstellbar komplexere Effekte. Deshalb wäre es bereits ausgesprochen unvorsichtig, anzunehmen, dass sowohl das Entstehen als auch das Funktionieren natürlicher Neo-Dämonen auf Voraussetzungen verzichten können, die bei von Menschenhand geschaffenen Neo-Dämonen auf der Hand liegen. Da von Menschenhand geschaffene Neo-Dämonen vom Wesen her adäquat in die Gesamtmathematik eingebettete Boolsche Algebra erfordern, ist von der Hypothese auszugehen, dass die unvorstellbar komplexeren natürlichen Neo-Dämonen mathematische Grundlagen benötigen, die die von künstlichen Neo-Dämonen erforderten mathematische Grundlagen im Bezug auf Flexibilität, Überlagerung, Überlappung, Verschränkung usw. bedeutend übertreffen.

 

Einerseits geht diese Hypothese mit abgrundtiefen Problemen einher. Es wäre schwierig, zu vertreten, dass die Mathematik aus der Evolution hervorgegangen sei. Die hypothetischen mathematischen Grundlagen des modifizieren Neo-Dämon transzendieren also gegebenenfalls die Evolution. Anderseits, da der Austausch bzw. Empfang von immaterieller Information im Rahmen der Irreversibilität bei nicht-isolierten Systeme eine zentrale Rollen spielt, ist schon allein deshalb diese Hypothese trotz aller Probleme, die sie mit sich bringt, ernstzunehmen. Und solange (i) diese Hypothese weder bestätigt noch widerlegt ist und (ii) die potentiellen irreversibilitätsbedingten Konsequenzen dieser Hypothese nicht geklärt sind, bleibt es schon deshalb – aber nicht nur deshalb – voreilig, die Kompatibilität zwischen Irreversibilität und Evolution zu dekretieren.

 

Perspektiven

Der Untertitel dieses Artikels stellt klar, dass wir uns hier auf eine erste Annäherung beschränken. Zahlreiche Schwierigkeiten bleiben noch zu lösen. Eine Vertiefung des vorliegenden Projekts muss erst einmal diese Schwierigkeiten im Bereich des Möglichen genau identifizieren, dann die notwendigen methodologischen Optionen treffen, um besagte Schwierigkeiten überhaupt behandelbar zu machen, und schließlich die entsprechenden Elemente adäquat formalisieren. Die Vorbereitungen sind bereits fortgeschritten, aber das Ganze erfordert Zeit.

 

Dagegen benötigen die mathematischen Grundlagen des modifizieren Maxwellschen Neo-Dämons als Modellierung der kumulativen Selektion – dieser Artikel begnügt sich mit der alleinigen Fragestellung – ein eigenes, mittel- bis langfristig angelegtes Projekt.

 

 

Referenzen

1. Schreiber A, Gimbel S (2010) Evolution and the Second Law of Thermodynamics: Effectively Communicating to Non-Technicians. Education and Outreach March 2010.

Doi: 10.1007/s12052-009-0195-3

 

2. Morris HM (1973) Evolution, Thermodynamics, and Entropy. ICR.

https://www.icr.org/article/evolution-thermodynamics-entropy/ 

 

3. Costa de Beauregard O (1963) Le Second principe de la science du temps. Seuil, Paris.

 

4. Brillouin L (1956) Science and Information Theory. Academic Press Inc., New York.

 

5. Adami C (2002) What is complexity? BioEssays 24:1085–1094, 2002. 

Doi 10.1002/bies.10192 

 

6. Standish RK (2018) On Complexity and Emergence.

arXiv: nlin/0101006v1.

 

7. Edmonds B (1995) What is complexity? Cogprints.org/357/ 

 

8. Standish RK (2008) Concept and Definition of Complexity. Intelligent Complex Adaptive Systems. Yang A. and Shan Y. (eds) (IGI Global: Hershey, PA) pp.105-12. 

Doi:10.4018/978-1-59904-717-1.ch004 

 

9. Kurzynski M, Chelminiak P (2017) Do biological molecular machines act as Maxwell’s demons?

arXiv: 1412.3981 [physics.bio-ph]. 

 

10. Mizraji, E (2021) The biological Maxwell's demons: exploring ideas about the information processing in biological systems. Theory Biosci. 140, 307–318 . 

Doi: 10.1007/s12064-021-00354-6. 

 

11. Monod J (1970) Le Hasard et la nécessité. Edition du Seuil, Paris 1970. 

 

12. Costa de Beauregard O (1989) Veto thermodynamique contre les duplicateurs perpétuels de seconde espèce. Annales de la Fondation Louis de Broglie, Vol. 14, no. 2, 1989.

 

13. Sanchez-Baracaldo P, Cardona T (2019) On the origin of oxygenic photosynthesis and Cyanobacteria, New Phytol, 225: 1440-1446.

Doi:10.1111/nph.16249.

 

14. Garcia-Pichel F et a. (2019) Timing the Evolutionary Advent of Cyanobacteria and the Later Great Oxidation Event Using Gene Phylogenies of a Sunscreen. mBio 10:10.1128/mbio.00561-19.

Doi: 10.1128/mbio.00561-19. 

 

15. Fournier GP et a. (2021) The Archean origin of oxygenic photosynthesis and extant cyanobacterial lineages Proc. R. Soc. B.2882021067.

Doi: 10.1098/rspb.2021.0675. 

 

16. Pross A, Pascal R (2013) The origin of life: what we know, what we can know and what we will never know. Open Biol.3120190. 

Doi: 10.1098/rsob.120190.

 

17. Drohan J (2021) Where it all began: An Account of the competing theories about the origin of life on Earth. Nu Sci Magazine-Biology, March 18, 2021.

 

18. Luisi PL (2016) The Emergence of Life. Cambridge University Press, Cambridge(UK).

 

19. Davies P (2001) The origin of life II:How did it begin? Science Progress (2001), 84 (1), 17–29. Doi:10.3184/003685001783239096.

 

20. Vollmert B (1995) Die Entstehung der Lebewesen in naturwissenschaftlicher Sicht. Gustav-Siewerth-Akademie. WeilheimBierbronnen (D).

 

21. Behe MJ (2001) Reply to My Critics: A Response to Reviews of Darwin's Black Box: The Biochemical Challenge to Evolution. January 2001 Biology & Philosophy 16(5):683-707

Doi: 10.1023/A:1012268700496. 

 

22. Chodasewicz K (2014) Evolution, reproduction and definition of life. Theory Biosci. 133, 39–45 . 

Doi: 10.1007/s12064-013-0184-5. 

 

23. Longo L et.a (2020) Primordial emergence of a nucleic acid-binding protein via phase separation and statistical ornithine-to-arginine conversion. Proc Natl Acad Sci U S A. 2020 Jul 7;117(27):15731-15739. 

Doi: 10.1073/pnas.2001989117.

 

24. Wentao M, Yu F (2015) Protocells: At the Interface of Life and Non-Life. Life 2015, 5(1), 447-458; Doi: 10.3390/life5010447. 

 

25. Gözen I et al. (2022) Protocells: Milestones and Recent Advances. Small 2022,18, 2106624.

Doi : 10.1002/smll.202106624 

 

26. Robertson MP, Joyce GF (2012) The origins of the RNA world. Cold Spring Harb Perspect Biol. 2012 May 1;4(5):a003608. 

Doi: 10.1101/cshperspect.a003608. 

 

27. Francis BR (2011) ]An alternative to the RNA world hypothesis. Trends in Evolutionary Biology 2011; 3:e2 

Doi : 10.4081/eb.2011.e2. 

 

28. Bernhardt HS (2012) The RNA world hypothesis: the worst theory of the early evolution of life (except for all the others). Biol Direct 7, 23 . 

Doi: 10.1186/1745-6150-7-23. 

 

29. Schrum JP, Zhu TF, Szostak JW (2010) The origins of cellular life. Cold Spring Harb Perspect Biol. 2010 Sep;2(9):a002212. 

Doi: 10.1101/cshperspect.a002212. 

 

30. West T, Sojo V, Pomiankowski A, Lane N (2017) The origin of heredity in protocells. Phil. Trans. R. Soc. B 372: 20160419.

Doi: 10.1098/rstb.2016.0419. 

 

31. Mansy SS, Szostak JW (2009) Reconstructing the emergence of cellular life through the synthesis of model protocells. Cold Spring Harb Symp Quant Biol. 2009;74:47-54. 

Doi: 10.1101/sqb.2009.74.014. 

 

32. Blaustein R (2016) The Great Oxidation Event: Evolving understandings of how oxygenic life on Earth began. BioScience, Volume 66, Issue 3, 01 March 2016, Pages 189–195.

Doi: 10.1093/biosci/biv193. 

 

33. West JB (2222) The strange history of atmospheric oxygen. Physiol Rep. 2022 Mar;10(6):e15214. 

Doi: 10.14814/phy2.15214. 

 

34. AbioEvo-Projekt (2021) 

Doi: 10.3030/101002075.

 

35. Paley W (1809) Natural Theology: or, Evidences of the Existence and Attributes of the Deity. 12th edition London: Printed for J. Faulder

https://darwin-online.org.uk/content/framesetitemID=A142&viewtype=text&pageseq=1

 

36. Dawkins R (1986) The Blind Watchmaker. New York, Norton & Company

 

37. Seiffertt J (2017) Boolean Algebra. In: Digital Logic for Computing, Springer, Cham. Doi: 10.1007/978-3-319-56839-3_2.

 

38. Barnett JH (2011) Applications of Boolean algebra: Claude Shannon and circuit design.

http://www.cs. nmsu.edu/historical-projects. 

 

39. Hehner ECR (2000) From Boolean Algebra to Unified Algebra. The Mathematical Intelligencer 26(2)

Doi: 10.1007/BF02985647. 

 

40. Mehlberg H (1961) Physical Laws and Time's Arrow, in Herbert Feigel, and Grover Maxwell (eds.) Current Issues in the Philosophy of Science, Holt, Rinehart and Winston, New York, 1961

 

41. Myrvold WC (2011) Statistical Mechanics and Thermodynamics: A Maxwellian View. Studies in History and Philosophy of Modern Physics 42(4) (April 2011)

Doi: 10.1016/j.shpsb.2011.07.001. 

 

42. Wilf HS, Warren J (2010) There’s plenty of time for evolution. PNAS December 13, 2010. 107(52)22454-22456

Doi: 10.1073/pnas.1016207107

 

43. Boël G, Danot O, de Lorenzo V, Danchin A (2019) Omnipresent Maxwell's demons orchestrate information management in living cells. Microb Biotechnol 2019 Mar;12(2):210-242.

Doi: 10.1111/1751-7915.13378 

 

44. Pocar M (2019) The Hidden Charm of Life. Life 2019, 9(1), 5.

Doi: 10.3390/life9010005 

 

45. Kendon V (2020) Quantum computing using continuous-time evolution.

arXiv: 2004.00704v [quant-ph]

Doi: 10.48550/arXiv.2004.00704 

 

***