Читать книгу: «Extropia», страница 4
Die bisher unverstandenen Kräfte der Selbstorganisation und eine spezielle, künstliche Physik trieben das System teilweise in unerwartete Richtungen, und genau das machte das Geheimnis und die Faszination der Zellularautomaten aus. Im Mittelpunkt der Forschungsdoktrin stand die Natur – die Natur als Lehrmeisterin, die Natur als das komplexe System, nach dem auch alle elektronischen Systeme streben sollten, die Natur als Dreh- und Angelpunkt einer symbiotischen Studie von Biologie und Technik. Die KL-Forschung ist der Ort, an dem natürliche Objekte die Computertheorie beeinflussten und sich Kreationen des Computers wie natürliche Objekte verhielten. Die Bedeutung von Zellularautomaten ist in ihrer Verbindung mit der physikalischen Welt zu sehen. Dies trifft besonders auf komplexe dynamische Systeme zu, in denen sich Verhaltensweisen als Folge einer Anzahl variabler Kräfte entwickeln. Im Gegensatz zu vielen Vorgängen, die mit Computern simuliert werden konnten, reflektieren Zellularautomaten also nicht nur die Realität, sondern sind vielmehr Realität. Sie sind selbst dynamische Systeme, die verwendet werden können, um bestimmte physikalische Systeme darzustellen, wobei die Brauchbarkeit jedes Modell dadurch bestimmt wird, indem die Resultate mit dem Original verglichen werden. Außerdem können sie auch dazu verwendet werden, komplexe Systeme im Allgemeinen zu verstehen. Von Neumann selbst dachte sich Zellularautomaten aus, um klarzustellen, dass Leben in einer reduzierten Welt unter sehr einfachen Voraussetzungen möglich sei. Aber sogar von Neumann, der schließlich Quantenphysiker war, schloss die Verbindung mit der Physik völlig aus – und damit auch die Möglichkeit, dass ein Zellularautomat ein Modell der fundamentalen Physik sein könne.
Eine der Ungereimtheiten von früheren Zellularautomaten war, dass sie nur in einer Richtung funktionierten; man konnte aus einer beliebigen, zufälligen Zusammenstellung nicht zurückverfolgen, welcher Schritt der vorletzte, der drittletzte usw. bis hin zur Anfangskonfiguration gewesen war. Da von unserem Universum angenommen wird, dass es in beide Richtungen berechenbar ist, so dass wir, vorausgesetzt, wir besäßen alle Fakten, beispielsweise auch die Ereignisse zu jedem beliebigen zurückliegenden Zeitpunkt berechnen könnten. Wenn nicht bewiesen werden konnte, dass Zellularautomaten die gleiche Fähigkeit besitzen, war der Anspruch hinfällig, sie als echte komplexe dynamische Systeme aufzufassen. Erforderlich war auch, dass sie alle diesbezüglichen Verhaltensweisen zeigten, einschließlich des Zustands, der die Entstehung des Lebens fördert. Es hat sich herausgestellt, dass die einfachste Form, einen reversiblen Zellularautomaten arbeiten zu lassen, auf die gleiche Weise funktioniert wie das Universum. Die Annahme, das Universum bestehe aus Information und sei in Wirklichkeit ein riesiger Computer, macht einen zwingenden Vergleich zwischen der Arbeitsweise der Computer und physikalischen Vorgängen erforderlich. Es gibt eine Art von digitalem Informationsprozess, der praktisch allem zugrunde liegt. Zellularautomaten, die künstliche Welten darstellen, lassen sich als nicht grundsätzlich verschieden von unserer eigenen vorstellen. Auch unser Universum ist im Grunde ein Zellularautomat, denn nach Vorstellungen von KI-Forschern funktionieren lebende Organismen in diesem Universum nach den gleichen Prinzipien. Lebende Dinge können weich und matschig sein, aber die Basis des Lebens ist eindeutig digital. Wir wissen nicht genau, wie es funktioniert, aber anstelle der Computerbits gibt es einen vierstelligen Code (die vier chemischen Basen, aus denen die DNS besteht und deren Reihenfolge den genetischen Code ausmacht) Und es gibt einen Prozess, der diesen Code entschlüsselt. Es handelt sich dabei augenscheinlich um eine Art Programm, das einen digitalen Rechner steuert, nur dass die Signale nicht aus einem Computer stammen, sondern chemischer Natur sind. Es gibt Leute, die nichts von diesem Konzept halten, aber es gab schließlich auch Leute, die nicht glauben konnten, dass organische Substanzen einmal durch den Menschen synthetisiert werden könnten – im Grunde ist es noch eine vitalistische Anschauung, zu glauben, dass da mehr ist als nur die Mechanismen des Lebens. Die Erkenntnis, dass es sich bei Leben um einen digitalen Informationsprozess handelt und das es insgesamt durch einen solchen Prozess in seiner Gesamtheit nachgeahmt werden kann, ist überwältigend. Oder um es anders auszudrücken – die Natur hat nichts gemacht, was ein Computer nicht auch könnte. Was ein Computer nicht kann, kann auch die Natur nicht.
Der Wissenschaftler Stephen Wolfram ist sich sicher, dass die Wissenschaft am Beginn einer neuen Untersuchungsmethodik steht. Anstatt Experimente mit echtem Material durchzuführen, ist der Computer selbst eine brauchbare Experimentiergrundlage, denn der Computer erlaubte es, bestimmte Gedankengänge in logischen Formeln auszudrücken, um anschließend, anstelle der herkömmlichen Manipulationen an Reagenzglasinhalten, wichtige Messdaten zu ermitteln. Nichts demonstrierte diese neue Art der Forschung so gut wie die Zellularautomaten. Zellularautomaten sind wirklich komplexe Systeme, die dennoch leicht mit einem Computer erfasst werden können. Einige dieser Systeme waren außerordentlich interessant, zeigten sie doch die gleiche differenzierte Vielschichtigkeit, die man bei einer breiten Palette anderer Dinge finden konnte, angefangen bei nichtlinearen, physikalischen Phänomenen wie Flüssigkeitsturbulenzen über Ökonomie bis hin zu lebenden Organismen. Wolfram nahm an, dass er Zellularautomaten dazu benutzen konnte, um wichtige Erkenntnisse über komplexe Systeme im allgemeinen zu erhalten, vor allem aber auch über einige Vorstellungen, die er bezüglich der Entstehung von Komplexität aus sehr einfachen Ursprüngen hatte. Bei Forschungen mit Zellularautomaten kann man mit etwas sehr einfach Erscheinendem beginnen und plötzlich etwas sehr Kompliziertes herausbekommen, so kompliziert, dass auf den ersten Eindruck Alles sehr zufällig zu sein scheint.
Meist lassen sich in unserer Umwelt die Auswirkungen bestimmter Gesetze leicht erkennen, beispielsweise das von Newton definierte Gesetz der Schwerkraft. Wolframs Interpretationen legten nun den Schluss nahe, dass Dinge manchmal einfachen Regeln folgen, wenngleich es so aussieht, als folgten sie sehr komplizierten oder gar keinen Regeln. Das Problem ist dann nur unsere beschränkte Einsicht – wir kennen diese Regeln einfach nicht. Die Herausforderung ist nun, diese unerforschten Regeln zu finden und damit die Naturgesetze zu entdecken, die komplexen Systemen zugrunde liegen. Was gar nicht so abwegig ist wenn man bedenkt, dass nicht nur das Chaos von einfachen Regeln bestimmt wird, sondern auch die weniger ungeordneten, aber immer noch komplexen Verhältnisse, die man in biologischen Verhaltensweisen erkennt. Tatsächlich lässt sich dieses Verhalten mit Zellularautomaten widerspiegeln. Der Umstand, dass sich diese Strukturen anhand einfacher Regeln entwickelten, war ein Hinweis darauf, dass der Versuch, Leben, im »Datenreagenzglas« eines Computers zu erschaffen, möglich war. Ein großer Fortschritt ergab sich, wenn man herausfand, welche Gesetze die Natur hervorgebracht hatte und dann diese Gesetze programmierte, um dem lebensähnlichen Verhalten dann zu erlauben, sich unter Anwendung dieser Algorithmen zu entwickeln.
War so etwas möglich? War es so einfach? Es gab Hinweise, dass es etwas außerhalb der Welt von Mathematik und Computern gab, das Zellularautomaten sehr ähnlich war. Wenn man die Natur aus der Perspektive der Zellularautomuten betrachtete, gab es aber auch eine Reihe weiterer Neuheiten zu entdecken. So stellte beispielsweise ein Neurobiologe die Behauptung auf, die Regeln von Zellularautomaten spielten auch für Funktionen des Sehzentrums eine Rolle und beeinflussten damit unser Sehen. Ein Pathologe fand einen neuen Weg, Blutabstriche zu untersuchen, indem er die weißen Blutkörperchen unter Zuhilfenahme von Zellularautomatenregeln untersuchte, und ein Physiologe dokumentierte Zellularautomatenaktivität in den Mikrotubuli des Zytoskeletts, die ein wichtiger Bestandteil vieler biologischer Zellen sind. Zellularautomaten sind nicht tatsächlich für diese natürlichen Phänomene verantwortlich da sie nichts weiter als mathematische Modelle sind, die nur dann Realität werden, wenn sie auf Computern laufen. Vielleicht ist die Welt – der Kosmos selbst – ein Zellularautomat, sozusagen der Ur-Zellularautomat, von dem alles ausgeht, als prima causa? Zellularautomaten könnten entscheidende Hinweise für das nicht enträtselte Wirken der Natur liefern oder sogar tatsächlich ein bestimmtes Phänomen in der Natur darstellen. Die Kluft zwischen theoretischen Modellen und einem tatsächlich arbeitendem System ließe sich überbrücken, indem man Messungen vornimmt und Übereinstimmungen zwischen der Theorie und dem tatsächlich bestehenden System aufzeigt. Zellularautomaten beweisen, dass sowohl im Computer als auch in der Natur dieselben Phänomene vorkommen. Das gleiche Prinzip, nämlich die durch einen einfachen Regelsatz bewirkte Duplikation komplexer Systeme, kann auch beim Bemühen, biologische Phänomene zu duplizieren, angewandt werden.
Ein solches Phänomen ist das der Vogel-Schwarmbildung, bei dem es sich um eine dezentralisierte Aktivität handelt, bei der jeder Vogel einfachen Regeln folgt. Das Gruppenverhalten ergibt sich dann aus dem kollektiven Zusammenspiel. Dessen Bewegungen sind vom Konzept her einfach, aber da sie so komplex aussehen, scheinen sie einerseits zufällig zu entstehen; andererseits sind sie enorm synchron. Das macht den Eindruck einer bewussten zentralen Kontrolle. Die Fakten deuten aber darauf hin, dass die Schwarmbewegung nur das gemeinschaftliche Ergebnis aus dem Verhalten eines jeden einzelnen Tieres ist, das allein auf der Grundlage seiner eigenen begrenzten Wahrnehmung handelt. Wenn diese Annahme stimmt, dann sollten sich Vogelschwärme auch simulieren lassen, indem man jedem Individuum einige einfache Regeln eingibt. Das Schwarmverhalten müsste dann spontan entstehen. Für ein Schwarmverhalten sind 3 Hauptregeln verantwortlich:
Eine zwingende Kraft, die den Schwarm zusammenhält
Eine Fähigkeit, die Geschwindigkeit zu bestimmen, so dass sich die Vögel gleich schnell bewegen
Eine Fähigkeit, Abstände einzuhalten, damit sich die Vögel nicht zu nahe kommen.
„Boids“ wurden die Computerkreaturen genannt, die Zellen in einem Zellularautomaten waren (Boids ist eine Kurzform von Birdoid; damit sind nicht nur Vogel- sondern auch Fischschwärme gemeint). Ihre Wahrnehmungen und Aktionen waren örtlich begrenzt. In den Simulationen geschah etwas, das nicht nur für richtige Vögel von Bedeutung ist, sondern auch für Gruppenbewegungen im Allgemeinen. Die Simulation bedeutete nicht, dass richtige Vögel den Computerregeln zwangsläufig folgten, aber sie zeigte, dass bei der Anwendung der Regeln ein Verhalten auftrat, dass einer Schwarmbildung glich. Ornithologen könnten mit diesen Computermodellen Experimente durchführen, die in der Natur nicht möglich sind. Weitere denkbare Anwendungen wäre die Unterstützung der wissenschaftlichen Untersuchung von Schwärmen und Herden. Eine Theorie über die Organisation von Schwärmen kann dadurch getestet werden, indem ein Verhaltensmodell vorgegeben und dann die Bewegung des simulierten mit der eines natürlichen Schwarms verglichen wird. Geht es nach manchem KL-Forscher, sollten Biologen, speziell Zoologen, die Beobachtung echter Tiere zugunsten leichter manipulierbarer künstlicher Computerkreaturen verringern, auch wenn deren Skelett aus Zahlen und nicht aus organischen Substanzen besteht. Mit diesen Modellen ließe sich auch das kollektive Verhalten sozialer Insekten studieren und Theorien über die Selbstorganisation ausbauen. Besonders in Fällen von Allelopathie spielen einige Prinzipien der Selbstorganisation auch bei sozialen Insekten eine wichtige Rolle. (A. drückt aus, dass die Verhaltensweisen eines Individuums von den Verhaltensweisen seiner Nachbarn bestimmt werden.) Während traditionelle biologische Theorien davon ausgehen, dass die Komplexität kollektiven Verhaltens auf das komplexe Verhalten von Einzelwesen zurückgeführt werden kann, gehen andere Biologen davon aus, dass selbst sehr einfaches allelopathisches Verhalten die Quelle für sehr komplexes und überraschendes Gruppenverhalten sein kann. Selbst komplexes Verhalten ergibt sich aus einfachen Regeln.
Wenn man Zellularautomaten benutzt oder Modelle, die an KL-Computertechniken angelehnt sind, können Theorien in überzeugender Weise überprüft werden. Schon von Neumann hatte vermutet, dass der Computer das wichtigste Instrument für wissenschaftliche Experimente werden würde. Stephen Wolfram bestand darauf, dass man Wissenschaft auf dem Computer betreiben könne, dass also Zusammenhänge auf dem Computerbildschirm beobachtet, diskutiert und als Tatsachen betrachtet werden können (also das Experiment ersetzen!) und dass KL-Forscher auf dem Weg sind, die verborgenen Gesetze, die das Universum regieren, letztlich zu entschlüsseln und in der Lage sind, eine allgemeine mathematische Theorie zu entwickeln, die die Natur und die Erzeugung von Komplexität beschreiben kann; dass sie in der Lage sind, die Geheimnisse der Natur zu entschlüsseln, die letztlich auch das Verhalten lebender Systeme diktieren. Die Informatik unterscheidet zwischen Maschinen mit endlich und unendlich vielen Zuständen. Eine Maschine mit endlich vielen Zuständen hat nicht nur eine endliche Anzahl von Zuständen, sondern für sie läuft außerdem auch die Zeit in Einzelschritten ab. Selbst wenn die Zeit kontinuierlich variieren sollte (was sie lt. der SQG jedoch nicht tut), könnte sie diese Kontinuität nicht wahrnehmen. (Wir Menschen sind Maschinen mit endlich vielen Zuständen. Da unser Gehirn 10^15 Bits speichern kann, bedeutet das, dass die Anzahl möglicher Gehirnzustände 10^10^15 beträgt.) Eine solche Maschine wird früher oder später wieder ihren Ausgangszustand erreichen und ab dann eine vollkommen periodische Sequenz von Zuständen wiederholen – für immer. (Das ist das Tiplersche Theorem der ewigen Wiederkehr.) Selbst wenn ein externer Stimulus gegeben ist, muss eine endliche Maschine ewig in den Zyklus zurückkehren, wenn sie ewig läuft. Mit einem nichtperiodischen externen Stimulus ist zwar die Sequenz der Maschinenzustände auch nichtperiodisch, aber schließlich wird sie in den vorangegangenen Zustand zurückkehren und dann geht alles von vorne los… (Unsterbliche sollten daher Maschinen mit unendlich vielen Zuständen sein.)
Der Prototyp aller Maschinen mit unendlich vielen Zuständen ist die Turing-Maschine, eine Maschine mit zwar endlich vielen Zuständen, die aber an ein unendliches Band angeschlossen wird. („Unendlich“ bedeutet nicht tatsächlich „unendlich“, sondern vielmehr „unbegrenzt“ oder „potenziell unendlich“.) Eine solche Turing-Maschine kann alles berechnen und jede andere Maschine emulieren[3]. Sie besteht aus einem Speicherband, das unbegrenzt lang ist und in Quadrate eingeteilt ist und aus einem Kopf, d.h. einer Maschine mit endlich vielen Zuständen, die folgende 5 Dinge tut:
Die Kopfmaschine kann eines von einer festgelegten, endlichen Anzahl von Symbolen auf das Band schreiben (0 und 1 reichen aus)
Sie liest, was auf dem Band steht
Sie kann sich merken, was sie gelesen hat
Sie kann Symbole löschen und andere drucken
Wenn sie einen oder mehrere Schritte durchgeführt hat, kann sie das Band vor- oder zurückbewegen
Das Speicherband ist das „unendliche“ Gedächtnis der Turing-Maschine, damit verfügt sie über weit mehr Fähigkeiten als jede andere endliche Maschine. Sie kann u.a. jede endliche Maschine simulieren. Eine solche Maschine, die in Form von Zahlen innerhalb einer Turing-Maschine existiert und nicht als greifbare Hardware, wird als virtuelle Maschine bezeichnet. Hat sie die gleichen Zustands-Übergangstabellen[4] wie eine reale Maschine, ist sie deren perfekte, ununterscheidbare Computersimulation bzw. deren Emulation. Turing-.Maschinen können nicht nur endliche Maschinen emulieren, sondern auch andere Turing-Maschinen. Da die universelle Turing-Maschine schließlich alle anderen Turing-Maschinen inklusive sich selbst emulieren kann, lässt sich eine Hierarchie von Maschinen aufstellen, die weitere Maschinen emulieren. Während die Turing-Maschine T0 eine reale sein kann, befindet sich in ihr eine virtuelle Maschine T1, in der sich eine weitere T2 befindet, die ihrerseits T3 codiert usw. Diese Abstufungen virtueller Maschinen innerhalb anderer virtueller Maschinen werden als „Vollzugebenen“ bezeichnet. Maschinen auf höherer Ebene (z.B. T3) arbeiten unabhängig von Maschinen, die sich auf niedrigerer Ebene (z.B. T1000) befinden, da deren Ersatz durch andere, vollkommen andersartige Maschinen keinerlei Auswirkungen auf die höheren Ebenen hat. Wird eine Maschine auf eine höhere Vollzugsebene transferiert, wird dieser Vorgang als „Upload“ bezeichnet; wird sie auf eine niedrigere transferiert, ist es ein „Download“. Die Hypothese, dass eine universelle Turing-Maschine jede andere beliebige Maschine emulieren kann, wird als Church-Turing-These bezeichnet. Da das „Halteproblem“ auch bei universellen Turing-Maschinen auftritt, gibt es keine Maschine, die es lösen kann.
Das Halteproblem
Das Halteproblem befasst sich mit der Frage, ob die Ausführung eines Algorithmus, d.h. eine Berechnung mehrerer Rechenschritte nach festen Regeln, also eine Berechnungsvorschrift, zu einem Ende gelangt. Der Mathematiker Alan Turing konnte mithilfe einer Turingmaschine beweisen, dass es keinen Algorithmus gibt, der diese Frage für alle möglichen Algorithmen und beliebige Eingaben beantwortet. Erreichen formale Systeme eine gewisse Komplexität, dann gibt es Aussagen, die man weder beweisen noch widerlegen kann, wie der österreichischen Mathematiker Kurt Gödel in seinem Unvollständigkeitssatz 1931 bewiesen hat. Der Gödelsche Unvollständigkeitssatz ist einer der wichtigsten Sätze der modernen Logik. Er beschäftigt sich mit der Ableitbarkeit von Aussagen in formalen Systemen und zeigt die Grenzen der formalen Systeme ab einer bestimmten Leistungsfähigkeit auf. Er weist nach, dass es in ausreichend komplexen Systemen, wie der Arithmetik, Aussagen geben muss, die man weder formal beweisen noch widerlegen kann. Eigentlich werden zwei Unvollständigkeitssätze unterschieden. Der Erste besagt, dass es in hinreichend starken widerspruchsfreien Systemen immer unbeweisbare Aussagen gibt. Der Zweite beinhaltet, dass hinreichend starke widerspruchsfreie Systeme ihre eigene Widerspruchsfreiheit nicht beweisen können. Durch diese Sätze ist der Mathematik eine prinzipielle Grenze gesetzt: Nicht jeder mathematische Satz kann aus den Axiomen eines mathematischen Teilgebietes (zum Beispiel Arithmetik, Geometrie und Algebra) formal abgeleitet oder widerlegt werden.
Die Church-Turing-These besagt, dass alles, was intuitiv berechenbar ist, auch von einer Turingmaschine berechenbar ist. Wenn diese Aussage wahr ist, kann das Halteproblem grundsätzlich nicht algorithmisch entschieden werden. Das führt zu der philosophisch weitreichenden Aussage, dass nicht jedes Problem lösbar ist, selbst dann nicht, wenn man alle relevanten Informationen kennt und sich streng an einen mathematisch überzeugenden Formalismus hält. Aus der Nichtentscheidbarkeit des Halteproblems folgt, dass im Allgemeinen eine automatisierte Bestimmung logischer Feststellungen ("dieser Sachverhalt ist wahr") - durch eine Programmlogik - nicht möglich ist. Insbesondere ist es generell nicht möglich, automatisiert festzustellen, welche Programme jemals zu einem Ende finden (Terminierungsbeweis). Für bestimmte Klassen von Turingmaschinen ist das Halteproblem jedoch entscheidbar (zum Beispiel für Programme ohne Schleifen). Viele in der Praxis vorkommende Programme und Verfahren sind daher so aufgebaut, dass auf Basis dieser Struktur ein automatisierter Terminierungsbeweis geführt werden kann. Außerdem zeigt dieser Beweis, dass es unmöglich ist, die Mathematik auf ein vollständiges und widerspruchsfreies System von Axiomen (unbewiesene Grundannahmen)zu gründen, d.h. dass es unmöglich ist, die Widerspruchsfreiheit der Mathematik zu beweisen. Da (klassische) Computer ziemlich schlecht darin sind, quantenmechanische Probleme zu berechnen, schlug der Physiker Richard Feynman einen Quantencomputer vor, dessen Rechenwerk quantenmechanische Prozesse nutzen soll, um Lösungen für quantenmechanische Probleme effizienter zu berechnen. Quantencomputer sind im Sinne der Berechenbarkeitstheorie zwar nicht „mächtiger“ als Turingmaschinen, da sie die gleichen Probleme lösen können, können dafür aber sehr viel schneller rechnen.
Der Logiker Kurt Gödel zeigte 1931, dass die gesamte Theorie der Arithmetik (sie umfasst Addition, Subtraktion, Multiplikation und Division) eine rückbezügliche Aussage beinhaltet, die besagt: „Diese Aussage ist nicht beweisbar.“ Wenn das stimmt, dann ist die Aussage an sich unbeweisbar und die Arithmetik ist unvollständig, weil sie eine wahre Aussage enthält, die aus den Axiomen der Theorie nicht bewiesen werden kann. Wenn die Aussage aber falsch ist, dann wäre die Arithmetik logisch inkonsistent, da diese Aussage einer Aussage der Arithmetik entspricht. Wenn die Arithmetik widerspruchsfrei ist, muss sie unvollständig und daher auch unentscheidbar sein, d.h. dass es dann keinen Algorithmus, keine Rechenvorschrift gibt, der entschieden kann, ob eine beliebige Aussage einer Theorie wahr oder falsch ist. Gödels Theorem hat deshalb einen Bezug zu Einschränkungen, denen Computer unterliegen, weil es im Wesentlichen der Unlösbarkeit des Computer-Halteproblems entspricht. Will man eine mathematische Aufgabe mit einem Computer lösen, geschieht dies mithilfe eines Programms. Ist das Problem lösbar (z.B. 19*74) und hat man das richtige Programm, gibt der Computer nach einer gewissen Zeit das Ergebnis und „bleibt stehen“; das Programm hat angehalten. Wenn die Aufgabe aber unlösbar ist – etwa die Berechnung einer irrationalen Zahl, z.B. Pi oder die Wurzel aus 2 – oder man das falsche Programm hat, wird sich der Computer ewig mit diesem Problem herumschlagen und nie die richtige Lösung finden; er wird nie „anhalten“. Turing bewies, dass es keine Rechenvorschrift, keinen Algorithmus gibt, um zu entscheiden, ob ein Programm jemals anhält oder nicht; dass das Halteproblem also unlösbar ist.
Es gibt bereits seit Jahrzehnten Organismen, deren Äußeres nicht aus Materie, sondern aus Information besteht. Diese Wesen sind nicht von dieser Welt, sondern Bewohner eines künstlich geschaffenen Universums einer allerdings hausgemachten Physik. Ihr reproduktives Verhalten ähnelt dem echter Lebewesen ganz entscheidend. Sie haben einen Genotyp, also eine Reihe von Kernzellen, die einen genetischen Code enthalten, der als Kopie an die nächste Generation weitergegeben wird. Außerdem gibt es einen Phänotyp, also einen neuen Organismus, der durch eine kodierte Serie von Instruktionen hergestellt wird. Dadurch ergeben sich neue Möglichkeiten für deren - echte - Evolution, denn eine Mutation im Genotyp führt zu einer besseren Anpassung des Phänotyps, der von der Fähigkeit, seine Gene weiterzugeben, in der Regel profitiert. Die Kräfte der Biologie können durch Maschinen also tatsächlich reproduziert werden. Bei sogenannten, vom Computer generierten Zellularautomaten, lassen sich Informationen im Konstruktionsplan des Automaten auf zweierlei Weise nutzen: als zu interpretierende Anweisungen, ähnlich wie Anweisungen in einem Computerprogramm und als nicht interpretierte Daten, wie etwa die Zahlen einer Dateiverwaltung, die in den Arbeitsspeicher kopiert und dort abgelegt werden. Als würde man einen Text lesen, was gleichzeitig der Interpretation entspräche; danach würde man die Seite auf einen Fotokopierer legen und eine Kopie machen - das entspräche der Transkription. Die biologische Entsprechung dieser Vorgehensweise lässt sich in jeder normalen Zelle finden, die genetische Daten so interpretiert, dass Proteine zur Katalyse verschiedener Prozesse gebildet werden können. Während des Reproduktionsprozesses dagegen werden die genetischen Daten nicht abgelesen, sondern nur kopiert.
(Künstliche) Intelligenz kann offenbar durch "dynamische Programmierung" entstehen: in jedem Schritt der Operation wird das Resultat bewertet und eines von mehreren Programmen, die zur Verfügung stehen, für den nächsten Schritt ausgewählt und aktiviert - eine Überzeugung, die sich aus der Verknüpfung zwischen Zellularautomaten und der Natur ergibt. Der Schlüssel zur Entdeckung und auch zur Schaffung aller Arten von Lebensformen wird durch den Bottom-up-Ansatz möglich; von der Basis zur Spitze. Nach diesem Konzept verfügen kleine Aktionen über eine Kollektivkraft, breiten sich nach oben aus, verbinden sich mit anderen und verlaufen oft rekursiv, so dass Aktionen Reaktionen erzeugen bis ein erkennbares Muster einer globalen Verhaltensweise entsteht. Damit braucht es keine übergeordnete Intelligenz, die einen Plan hat. Die "Natur" bedient sich ihrer eigenen komplizierten Phänomene - entstanden durch die Verbindung verschiedener Variablen zu einem komplexen System. Durch milliardenfache Versuche und Irrtümer, mithin durch den Evolutionsprozess also, entstand und entsteht aus diesem Zusammenwirken etwas Sinnvolles. Es hat nicht nur den Anschein, als ob kleine, unbewusste Materieteilchen (Atome, Moleküle) kooperieren - sie tun das tatsächlich! Atome und die Moleküle bilden kooperative Strukturen, lokalisiert in Zeit und Raum. Kleine Pakete der Kooperation bilden dann wiederum Pakete von Paketen und Pakete von Paketen von Paketen. Diese Kooperation ist möglicherweise eines der fundamentalen physikalischen Gesetze.
Bottom-up ist allgegenwärtig in der Biologie. Es ist die Ursache für den Beginn des Lebens, angefangen bei der Bildung organischer Moleküle über die Entstehung von Bakterien bis zum Auftauchen vielzelliger Organismen bis hin zum Menschen. Überall, selbst in kompliziert aufgebauten Organismen, funktioniert alles nach der Bottom-up-Methode. Innerhalb eines Organismus entwickeln einzelne Zellen eine Art von Privatleben und entlassen nach bestimmten Regeln chemische Substanzen: Wenn Bedingung A in einer bestimmten Umgebung existiert, führen sie Handlung B aus. In diesem Sinne ist also eine Zelle nichts weiter als eine Finite State Machine, die in einem Zellularautomaten-Universum agierte. Diese scheinbar unbedeutenden Verhaltensweisen sind die Grundlage für großartige Dinge: für Organe, Zentralnervensysteme, vollständige Organismen, Staaten. Der Bottom-up-Ansatz ist der richtige, um lebensähnliche Prozesse zu erzeugen. Virtuelles, computerbasiertes Leben definiert sich aus Populationen von einfachen Programmen oder deren Spezifikationen. Es gibt weder ein Oberprogramm, das die anderen Programme steuert, noch Regeln in diesem System, die das globale Verhalten bestimmen, denn jedes Programm enthält Einzelheiten für die Reaktion eines einzelnen Wesens in lokal begrenzten Situationen. Somit ist jedes Verhalten, das auf einer höheren Ebene als das individuelle Programm abläuft neu entstanden. Neu entstehendes Verhalten ist die essentielle Eigenschaft aus dem Bottom-up-Konzept. Es gibt keinen Reduktionismus. Die Gesamtheit ist mehr als die Summe ihrer Einzelkomponenten. (Allerdings darf man diese Synergieeffekte nicht im Umkehrschluss als Beweis für den Vitalismus deuten!) Forschungen mit virtuellem Leben legen den Schluss nahe, dass die Vielfalt des irdischen, natürlichen Lebens nur ein Bruchteil möglicher Existenzformen ist.
Wenn es andere (außerirdische) Lebensformen wirklich gibt, sollte es möglich sein, sie zu untersuchen, um unbekannte Merkmale des Lebens zu entdecken. Die Untersuchung des nur auf der Erde tatsächlich realisierten und gegenwärtigen Lebens könnte es unmöglich machen, zwischen den erdspezifischen Lebenscharakteristika und den generellen Eigenschaften aller möglichen Lebensformen zu unterscheiden (ausgestorbene Lebensformen, außerirdisches Leben, andere DNS-Kombinationen, DNS-Leben mit mehr als 4 Basenpaaren, Trans-DNS-Leben, virtuelles Leben, Leben jenseits der Kohlenstoff-Chemie, jenseits der Baryonen, Dunkle-Materie-Leben usw.) Die Weitergabe von Information und deren Speicherung gehört zu den unbedingten Merkmalen des Lebens. Die meisten uns bekannten lebenden Dinge sind physikalische Verkörperungen von Information tragenden Wesen; ein Großteil ihrer Tätigkeit basiert auf der Weiterleitung von Information statt bloß der von Materie oder Energie, um sich zu erneuern, um Nahrungsquellen zu finden und generell ihre Lebensvorgänge durch Beibehaltung ihrer inneren Struktur aufrechtzuerhalten. Und diese Struktur selbst ist Information. Das lässt den Schluss zu, dass die Informationsauswertung selbst über den Einsatz von Materialien und Energie die Kontrolle übernommen hat. Durch ihre Fähigkeit, im Rahmen ihrer Möglichkeiten einen Zustand zunehmender Ordnung aufrechtzuerhalten, widerstehen sie dem zweiten Hauptsatz der Thermodynamik. Leben hat diese Fähigkeit, weil es am Rande des Chaos existiert, wo ein Teil seiner Information stabil bleibt und eine gewisse Ordnung erhalten bleibt, während sich die Restmenge frei und chaotisch bewegen kann. Leben braucht also einen ausgewogenen Komplexitätsgrad, um der Entropie ein Schnippchen zu schlagen. In diesem Zustand ist maximale Komplexität gegeben und die Entropie optimiert.
Unterhalb dessen ist Information gewissermaßen eingefroren. Sie kann zwar erhalten werden, aber kann sich nicht frei bewegen - etwa wie Eis, so dass keine neuen Informationen entstehen können und Leben nicht gedeihen kann. Jenseits dieses kritischen Wertes ist sie nur schwer zu erhalten, da sie sich frei und chaotisch wie in einem heißen Dampf bewegt. Um Künstliches Leben schaffen zu können, benötigte man also ein System, das die korrekte Größenordnung von Komplexität enthielt, und zwar am Rande der Phasenumwandlung zwischen Wüste und Zyklon. Die Schöpfung Künstlichen Lebens setzt voraus, dass man etwas synthetisieren kann, das den Kriterien der „Lebendigkeit“ genügt. Unter den zahlreichen Hindernissen, die der Beantwortung im Wege stehen, ist keines von grundsätzlicherer Bedeutung als das Problem der Definition. Wie sollte man Leben erschaffen, wenn niemand genau weiß, was das eigentlich ist? Und wie sollt man erkennen, dass man es geschafft hat? "Intelligenz" genau zu definieren ist ein vergleichbares Problem. Eine vorläufige Lösung besteht im sogenannten „Turing-Test“. Eine Person stellt einer anderen Person sowie einem Computer kritische Fragen. Wenn der Fragende nicht fähig ist, zu entscheiden, ob die (richtige bzw. sinnvolle) Antwort von der anderen Person oder vom Computer kommt, hat der Computer den Test bestanden. Dem Turing-Test ähnlich ist der „Vaucanson- Test“ bzw. den »Enten-Test«: Wenn etwas wie eine Ente aussieht und wie eine Ente quakt, gehört es auch zu der als Enten bezeichneten Gruppe. Dieser Test ist zugegebenermaßen sehr subjektiv, aber letztlich auch nicht subjektiver als der Turing- Test. Eine mögliche Abwandlung des Enten-Testes ist folgende: Man sperre den Kandidaten, der dem »Lebendigkeitstest« unterzogen werden soll, mit einem Biologen zusammen in einen Raum. Wenn der Biologe herauskommt und glaubt, er sei mit einer lebendigen Kreatur eingeschlossen gewesen, so könnte man das als positives Zeichen werten.