promo_banner

Реклама

Читать книгу: «Extropia», страница 3

Шрифт:

Zelluläre Automaten + Turing-Maschinen (Final State Machines)

Alonzo Church formulierte 1936 die These, dass eine Funktion genau dann (im intuitiven Sinn) berechenbar ist, wenn sie durch eine Turing-Maschine berechnet werden kann. Sie erklärt also die auf Turing-Maschinen basierende mathematische Definition der Berechenbarkeit zum Kriterium der Berechenbarkeit überhaupt. Die Churchsche These ist mathematisch nicht beweisbar, weil der Begriff der (im intuitiven Sinn) berechenbaren Funktion nicht mathematisch definierbar ist, da sich jede mathematische Definition der Berechenbarkeit am intuitiven Verständnis der Berechenbarkeit messen lassen muss. Eine mathematische Definition der Berechenbarkeit ist also immer nur ein Modell. Dass eine durch eine Turing-Maschine berechenbare Funktion auch im intuitiven Sinn berechenbar ist, resultiert aus der „Natürlichkeit“, mit der sie Berechnungen durchführt. Dass jede im intuitiven Sinne berechenbare Funktion auch durch eine Turing-Maschine berechnet werden kann, hat sich in den vergangenen siebzig Jahren vielfach durch die große Zahl unterschiedlicher, aber zu Turing-Maschinen äquivalenter Berechnungsmodelle bestätigt, zu denen alle universellen Programmiersprachen, aber auch andere mathematische Formalismen und Kalküle gehören. JEDE DURCH EINE TURING-MASCHINE BERECHENBARE FUNKTION ist eine sogenannte „Wortfunktion“, die Wörter auf Wörter abbildet. (Aber nicht jedem Wort A muss ein Wort B zugeordnet werden; Wortfunktionen können „partiell“ sein.) Für Mathematiker und Informatiker ist ein „Wort“ eine endliche Symbolfolge, deren Symbole aus einem (endlichen) Alphabet kommen. Die Churchsche These charakterisiert daher die Klasse der Wortfunktionen, die im intuitiven Sinn berechenbar sind. Sie wird aber nicht als These über Wortfunktionen verstanden, sondern allgemein als These über Rechnen und Berechenbarkeit. Diese Deutung schließt jedoch die Behauptung mit ein, dass berechenbare Funktionen immer als Wortfunktionen aufgefasst werden können.

Allerdings kann nicht jede Rechengröße durch eine endliche Symbolfolge dargestellt werden, da es bei einem gegebenen Alphabet nur so viele Wörter gibt , wie es natürliche Zahlen gibt, d.h. es gibt nur „abzählbar“ unendlich viele Wörter. Weil die Menge der reellen Zahlen aber „überabzählbar“ unendlich ist, kann nicht jede reelle Zahl eine Darstellung als Wort haben und deshalb können nicht alle Funktionen auf den reellen Zahlen auch als Wortfunktionen dargestellt werden. Gegen den Zweifel, ob die Churchsche These wirklich die im intuitiven Sinne berechenbaren Funktionen charakterisiert, lässt sich einwenden, dass Rechnen immer auch an eine physische Repräsentation der Größen gebunden ist, auf die es sich bezieht (das wäre aber Contra die Platonische Welt?). Da unser Universum aber eine endliche Größe hat, kann Rechnen niemals mehr sein als das, was durch eine Turing-Maschine emuliert, d.h. in vollständiger Genauigkeit simuliert werden kann. Zwar sind reelle Zahlen (z.B. oder π) nur Denkmöglichkeiten, weil sie keine endliche Darstellung haben, stattdessen haben sie eine endliche Beschreibung, die einen unendlichen Prozess definiert, der sie erzeugt. Mit ihnen lässt sich daher in beliebiger Genauigkeit rechnen. Die Grenze der Berechenbarkeit liegt also nicht bei unendlichen Werten. Was man auch immer von der Churchschen These halten mag – das Rechnen kennen wir nur exemplarisch; nur auf der symbolischen Ebene haben wir ein gesichertes und dazu beispielhaftes Rechenverständnis entwickelt.

Simulatoren sollen virtuelle Objekte erschaffen, die auf Menschen genauso wie echte Objekte reagieren. Dazu muss deren Verhalten aus computergerechten Formulierungen der Naturgesetze berechnet werden. Das führt dazu, dass auch in der VR praktisch die echten Naturgesetze gelten. Andererseits zeigen z.B. Computerspiele, dass virtuelle Welten mit ganz anderen Gesetzen möglich sind; so kann der Energiesatz durch ein anderes ersetzt werden oder ganz entfallen. Gesetze in von Computer generierten Welten können also durchaus den echten Naturgesetzen widersprechen, auf denen sie beruhen. (Der echte Computer unterliegt ja den echten physikalischen Gesetzen dieses Universums.) Nehmen wir unsere Benutzeroberfläche des Universums. Die These des Reduktionismus besagt, dass dasjenige, was sie zeigt, auf fundamentale Naturgesetze zurückgeführt werden kann. Diese ermöglichen die Konstruktion einer Turing-Maschine, eröffnen uns also zumindest deren Rechenmöglichkeiten. Nach der Church-Turing-These gibt es keine weiteren Rechenmöglichkeiten: Alles, was überhaupt berechenbar ist, kann - so die These - durch eine Turing-Maschine berechnet werden. Zahlreiche Versuche, sie zu beweisen oder zu widerlegen, sind gescheitert. Ob sie zutrifft, ist eine physikalische Frage, die nicht allein durch »Logik« und »Beweis« entschieden werden kann. Wenn die Naturgesetze die Konstruktion einer Turing-artigen Maschine zuließen, die unendlich viele logische Schritte in endlicher Zeit durchführen kann, oder wenn sie eine unberechenbare Zahl messbar machen würden, wäre die These falsch. Falsch wäre sie auch, wenn es, entgegen der Quantenmechanik, physikalische Systeme gäbe, die überabzählbar viele Zustände annehmen könnten. So wäre es, wenn die nicht-quantenmechanische Physik die Realität richtig beschriebe. Dann wären analoge Rechnungen möglich, und deren Repertoire geht weit über das von Turing-Maschinen hinaus. Die Quantenmechanik scheint zunächst die Church- Turing-These vor der Widerlegung durch klassische analoge Computer zu retten, indem sie verbietet, diese zu bauen. Andererseits aber könnte die Quantenmechanik Rechenmöglichkeiten eröffnen, welche den Turing-Maschinen, deren Wirken ja klassisch verstanden werden kann, nicht zur Verfügung stehen.

Es ist nicht auszuschließen, dass Quantencomputer Funktionen berechnen können, die keine Turing-Maschine berechnen kann, denn es ist nicht offensichtlich, dass jede Funktion, die wir intuitiv als durch einen Algorithmus berechenbar ansehen, durch eine Turing-Maschine berechnet werden kann. Obwohl Jahrzehnte der Suche nach Evidenz für und gegen die Church-Turing-These nichts erbracht haben, was gegen sie spricht, könnte es doch sein, dass wir in der Natur einen Prozess entdecken werden, der eine Funktion berechnet, die durch eine Turing-Maschine nicht berechnet werden kann. Es wäre wunderbar, wenn das geschehen würde, denn dann könnten wir mit Hilfe dieses Prozesses bisher unmögliche Berechnungen durchführen. Selbstverständlich müssten wir dann auch die Definition der Berechenbarkeit ändern, und mit ihr die Computerwissenschaft. Auch Quantencomputer erfüllen die Church-Turing-These. Wenn sie gilt, können wir alle Rechnungen und alle Beweise auf unserer Benutzeroberfläche des Universums verfolgen. Kein Orakel kann dann aus unverstandenen Tiefen heraus Berechnungen durchführen, die Turing-Maschinen nicht durchführen können. Das heißt aber nicht, dass wir zur Berechnung dessen, was wir beobachten, aus den Naturgesetzen heraus befähigt sind. So wie die Gesetze bzw. Regeln von Computerspielen insgeheim durch die Gesetze der Quantenmechanik festgelegt werden, an die die Spieler nicht herankommen können und die sie durch Rechnungen, die ihnen die Abläufe auf ihrem Bildschirm ermöglichen, auch nicht auswerten könnten, so könnten Prozesse, die uns wegen unserer Beschränkung auf Turing-berechenbare Abläufe verborgen bleiben, unsere Beobachtungen bestimmen.

Doch eine solche Annahme würde uns aus dem Reich der Naturwissenschaften hinausführen. Dass die Natur durch uns noch unbekannte Gesetze festlegt, was geschieht, war die Auffassung von Einstein und seinen EPR-Kollegen, die den Formalismus der Quantenmechanik vervollständigen, deren experimentelle Konsequenzen aber beibehalten wollten. Die Unterstellung jedoch, dass die Natur durch Gesetze, die uns für immer unzugänglich sind, festlegt, was auf unserer Benutzeroberfläche geschieht, erklärt nichts und kann weder widerlegt noch bewiesen werden. Sie ist also als Naturgesetz nicht akzeptabel. Ohne Einsicht in die Naturgesetze können wir nicht wissen, was die Natur berechnet. Wenn nun aber Prozesse der Natur auf einsehbare gesetzmäßige Zusammenhänge auf unserer Oberfläche führen, müssen deren Ergebnisse bei Gültigkeit der These durch eine Turing-Maschine reproduziert werden können, denn könnten sie das nicht, könnten wir die diesen Gesetzen genügenden Abläufe zu Berechnungen benutzen und die These wäre falsch. Jetzt befinden wir uns im Bereich der Naturwissenschaften, denn die Annahme gesetzmäßiger Zusammenhänge kann widerlegt werden. Tatsächlich scheinen die Gesetze der Physik die Konstruktion von Turing-Maschinen zu erlauben und legen damit fest, welche Mathematik und Logik wir[1] betreiben können. Außerdem sind diese Gesetze so geartet, dass wir sie kennen und sie eben durch die Mathematik und Logik, die sie ermöglichen, ausdrücken und auswerten können.

Ein anderes, physikalisches Beispiel für die Möglichkeit, dass Beobachtungen auf einer Benutzeroberfläche Gesetzen genügen, die zwar auf dieser Ebene formuliert und ausgewertet werden können, nicht aber die Gesetze sind, durch welche die Natur die Beobachtungen festlegt, bildet die Ausbreitung von Licht in zwei Medien mit unterschiedlichen Lichtgeschwindigkeiten. Nun bestimmt die Natur den Weg des Lichts unter dem Einfluss der Moleküle der Luft und des Wasser sicher nicht dadurch, dass sie die Zeit berechnet, die es für verschiedene Wege braucht, und ihm dann den schnellsten Weg zuweist. Selbst bei vorgegebenen Geschwindigkeiten des Lichts in Luft und in Wasser legen die Gesetze der Wellenausbreitung dessen Weg von A nach B fest. Diese führen zwar dazu, dass das Licht den jeweils schnellsten Weg nimmt, können aber durch die Rechenmöglichkeiten, welche die Kenntnis dieser Wege bereitstellt, weder formuliert noch ausgewertet werden. Die Natur verhält sich, als ob sie die für die Reise des Lichts von A nach B erforderliche Zeit minimieren wolle. Aber die Natur will überhaupt nichts. Sie verhält sich gemäß ihren Gesetzen und bestimmt durch diese auch, ob wir sie formulieren und, gegebenenfalls, auswerten können. Obwohl das Fermatsche Prinzip von der kürzesten Zeit kein fundamentales Naturgesetz ist, kann es doch für solche Gesetze Modell stehen. Denn nach heutigem Wissen können die fundamentalen Naturgesetze ausnahmslos aus der Forderung abgeleitet werden, dass die Funktion namens „Wirkung von Grundgrößen“ so klein wie möglich ist. Das Problem der Physik ist also »nur«, die Grundgrößen und deren Wirkungsfunktion herauszufinden. Sollte die Church-Turing-These falsch sein, hängt es von den Einzelheiten ihres Versagens ab, ob sie in abgeschwächter Form aufrechterhalten werden kann. Ihre ultimative Abschwächung wäre die Annahme, dass die Natur uns diejenigen mathematischen und logischen Möglichkeiten zur Verfügung stellt, durch die ihre Gesetze gekannt, aufgeschrieben und ausgewertet werden können.

Eine Gegenthese zu der von Church und Turing ist, dass zumindest das Wirken des menschlichen Geistes zu seiner Beschreibung unberechenbare Funktionen erfordert. Wenn solche Prozesse nicht zugleich den Bereich des berechenbaren erweitern, sind sie wissenschaftlichen Untersuchungen nicht zugänglich, weil sie vom Standpunkt der Turing-Berechenbarkeit aus gesehen zufällig sind. Roger Penrose vertritt die Meinung, dass im Gehirn quantenmechanische Prozesse ablaufen, die durch Turing- Maschinen nicht simuliert werden können. Professionelle Gehirnforscher schließen dies jedoch aus, weil Denkvorgänge länger dauern, als eine für quantenmechanisches Verhalten erforderliche Kohärenz im Gehirn aufrechterhalten werden kann. Harte Evidenz gegen die Church- Turing-These gibt es nicht. Auch wenn sie eines Tages widerlegt würde, könnte sie wohl dennoch in einer abgeschwächten Form aufrechterhalten werden, denn Prozesse, die durch Turing-Maschinen nicht berechnet werden können, würden neue Formen der Berechnung eröffnen - Formen, die vielleicht besser als Messungen bezeichnet werden sollten. Bereits wenn sich Mathematiker bei aufwendigen »gewöhnlichen« Beweisen wie dem des Vierfarbensatzes[2] des Computers bedienen, darf behauptet werden, sie führten statt rein logischer Beweise physikalische Experimente durch, weil die Beweisschritte selbst dem Computer übertragen werden: Überprüft wird nur das Programm, das der Computer ausführen soll. Zweifelsfrei ist der Computerbeweis des Vierfarbensatzes korrekt, doch sei nochmals darauf hingewiesen, dass er auf den Gesetzen der Physik beruht. Korrekt ist er, weil wir die besten überhaupt möglichen Gründe für die Annahme haben, dass der Computer in diesem Fall tut, was er soll. Würden Außerirdische menschliche Mathematiker bei ihrem Beweis des Vierfarbensatzes beobachteten, dann würden sie wohl den Eindruck gewinnen, dass sie keinen logischen Beweis, sondern ein Experiment durchführen. Die Naturgesetze von heute stimmen nicht notwendig mit denen von gestern überein, denn möglicherweise hängen die mit dem Etikett „Logik“ ausgezeichneten Beweise doch nicht von den Gesetzen der Physik ab?

Die Bezeichnung „Turing-Maschine“ geht auf den britischen Mathematiker Alan Turing zurück, der in den dreißiger Jahren die Grundprinzipien der Rechenmaschinen untersuchte. Jeder Digitalcomputer, und sei er noch so komplex, ist eine Turing-Maschine, die man deshalb manchmal auch „universelle Rechenmaschine“ nennt. Eine Turing-Maschine besteht aus einem unendlich langen, binären Band für Input und Output, einem Prozessor und einem Programm. Der Prozessor liest von dem Band den Input, verarbeitet ihn anhand der Anweisungen in dem Programm und gibt ihn über das Band als Output aus. Der Prozessor kann nur vier Operationen ausführen: Er kann eine 1 durch eine 0 ersetzen und umgekehrt, und er kann einen Schritt vorwärts oder einen Schritt zurück gehen. Bemerkenswerterweise kann man auch die Tätigkeit jedes modernen Digitalcomputers auf diese vier Operationen zurückführen. Auf eines sollte man hinweisen: Das Gehirn scheint zwar ein neuronales Netz zu sein, aber manche Fachleute argumentieren aus technischer Sicht, man könne die Schaltkreise eines neuronalen Netzes im Prinzip mit einer Turing-Maschine nachvollziehen. Indirekt kann man das Gehirn also durchaus als sehr komplexe Turing-Maschine ansehen. Entscheidend ist aber, dass es sich um eine sehr umständliche Herangehensweise handelt, die sich nicht für die Gehirnforschung eignet. Praktischer ist es, wenn man mit den Untersuchungen direkt bei den neuronalen Netzen anfängt.

Unter „Automaten“ verstand von Neumann Maschinen, die zur Selbstorganisation fähig sind, speziell solche, deren Verhalten man mathematisch bestimmen konnte. Ein Automat ist eine Maschine, die Informationen verarbeitet, sich dabei logisch verhält und den nächsten Schritt selbsttätig ausführt, nachdem sie die entsprechenden Daten, die ihr von außen zugeführt wurden, mit den Anweisungen, die in ihrem Inneren festgelegt sind, zusammengeführt hat. Da von Neumann nicht einsah, warum man Organismen, von Bakterien bis hin zum Menschen, nicht als Maschinen ansehen sollte, suggerierte die von ihm verwendete Definition eine etwas weiter gefasste Bedeutung als die normalerweise übliche. Wenn es gelänge, Automaten zu verstehen, so seine Quintessenz, verstünde man nicht nur die Wirkungsweise von Maschinen besser, man verstünde auch das Leben. Wäre es einer künstlichen Maschine möglich, sich zu kopieren, die sich dann ihrerseits vervielfältigen könnte, wie das ja natürliche „Maschinen“, beispielsweise Farne, Papageien oder Menschen, können? Die Bejahung wäre ein deutlicher Hinweis auf die nahe Verwandtschaft zwischen künstlichen und natürlichen Automaten. Die Erzeugung von Nachkommen ist eines der verwendeten vernünftigen Hauptkriterien, mit denen festgelegt wird, ob etwas lebt. Computer und Menschen sind dann lediglich verschiedene Klassen von Automaten. John von Neumann ist somit der geistige Vater des „Künstliches Lebens“ und er war auch der Vordenker der theoretischen Konstruktion der selbstreproduzierenden Automaten.

Es war die Information, die John von Neumanns selbstreproduzierende Maschine von den Automaten seiner technisch ausgerichteten Vorgänger unterschied. In ihrem Mittelpunkt stand ein vorgegebener Plan, der nicht nur ihr Verhalten bestimmte, sondern auch ihre Reproduktionsaktivität. Dass ein Gebilde reiner Logik über einige der Fähigkeiten eines lebenden, atmenden Wesens verfügen kann, wurde durch Alan Turing möglich, der sich 1936 seinen eigenen, imaginären Automaten ausdachte und der heute allgemein als Turing-Maschine bezeichnet wird. Seinerzeit war sie allerdings weit davon entfernt ein Lebewesen zu sein. Vielmehr war sie eine Art weiterentwickeltes Tonbandgerät, in dem ein Endlosband lief. (Zur Erinnerung: dieses Gerät war ein Phantasiegebilde, so dass Millionen von Kilometern lange Tonbänder und jahrhundertelange Rechenprozesse kein Problem darstellen.) Das Band war in Abschnitte unterteilt, auf denen sich jeweils ein Stück Information befand. Der Schreib-Lese- Kopf, der sich über das Band bewegte, war in der Lage, diese Informationsteile zu lesen, zu löschen oder einen solchen Abschnitt zu beschreiben. In diesem Schreib- Lese- Kopf gab es außerdem einen Kontrollmechanismus, der ihm mitteilte, was jeweils zu tun war, während ein Abschnitt gelesen wurde.

Seine Charakteristika und sein Verhalten machten ihn zu dem Gerät, das heute als Finite State Maschine (FSM) bzw. als „endlicher Automat“ bekannt ist. Dieses Gerät unterteilte alle Informationen in diejenigen, die durch den inneren Zustand bedingt wurden, und solche, die von außen stammten. Es wurde außerdem angenommen, dass das digitale Universum aus körnigem Material bestand und eine Fortbewegung in beliebig kleinen Intervallschritten möglich war - bis zu einer Nanosekunde. In all diesen Fällen war eine FSM also in einem bestimmten, beschreibbaren Zustand. Die Beschreibung konnte außerordentlich kompliziert, aber auch sehr einfach sein; die einzige Einschränkung war, dass es eine Beschreibung aus einer endlichen Anzahl möglicher Zustände war (diese Anzahl konnte sehr hoch, aber nicht unendlich sein). Zwischen einem momentanen Zustand und dem nächsten begrenzten Zeitabschnitt würde die FSM die Außenwelt wahrnehmen und alle Eingaben verwenden, zu der sie Zugriff hatte. Danach würde die FSM, entsprechend gewisser vorgegebener Verhaltensmaßregeln, sowohl die Daten von außen als auch ihren eigenen momentanen Zustand berücksichtigen, um ihr zukünftiges Verhalten zu bestimmen, und außerdem festlegen, welchen inneren Zustand sie im nächsten Zeitabschnitt annehmen würde. Was die Turing-Maschine so außerordentlich vielseitig machte, war die Speicherkapazität ihres Endlosbandes. Mit der gesamten Information auf diesem Band könnte die Turing-Maschine auch denkbar unterschiedlichste Funktionen einer anderen Maschine nachahmen. Während der nächsten fünfzig Jahre stand Turings Maschine im Mittelpunkt heftiger Diskussionen über die Streitfrage, ob sich eine Maschine wirklich Intelligenz aneignen könne. Viele Wissenschaftler behaupteten, ein Computer sei durchaus in der Lage, denn unter logischen Gesichtspunkten betrachtet gälten alle elektronischen, digitalen Computer als Turing-Maschinen und daher als universelle Computer.

Andere Wissenschaftler widersprachen und wandten ein, das Gehirn könne niemals als Finite State Machine gelten, denn weder sei es möglich, seinen Zustand so knapp zu beschreiben, noch sei eine Regeltabelle in der Art zu formulieren, dass sie unfehlbar menschliches Denken nachahmen kann. Da die Biologie das überzeugendste Informationssystem bildet, würde dessen Nachahmung den Schlüssel für ein sehr wirkungsvolles künstliches System liefern. Auf dieser Grundlage lassen sich verschiedenen Teile des Rechners als »Organe« auffassen, dessen Schaltelemente wie Neuronen aufgebaut sind. Auf dieser Basis entwickelte von Neumann auch ein künstliches Wesen, das über die komplizierteste biologische Funktion verfügen sollte, die Fähigkeit zur Selbstreproduktion. Der erste selbstreproduzierende Automat, den von Neumann erdachte, war ein Computer, der aus Schaltern, Reglern und Teilen der Informationsweitergabe bestand. Er war aber nicht als reines Informationsgebilde gedacht, sondern als handfestes Gerät mit Bezug zur Wirklichkeit. Neben den computerinternen Bestandteilen besaß der Automat fünf zusätzliche Elemente:

1. ein Element zur Manipulation (ähnlich einer Hand), das seine Befehle von der »rechnenden« Kontrolleinheit der Maschine bekam;

2. ein Element zum Schneiden, das zwei Elemente trennen konnte, wenn der Computer dies anordnete;

3. ein Element zum Verbinden, das in der Lage war, zwei Teile zusammenzufügen;

4. ein sensorisches Element, das alle Teile erkennen und die entsprechende Information an den Computer weiterleiten konnte;

5. eine Reihe von Träger - als genau festgelegte strukturelle Elemente, die nicht nur den Montagerahmen für das Wesen darstellten, sondern auch die Bausteine des Informationsspeichers.

Es existierte auch ein Lebensraum für das Wesen, ein riesiges Reservoir in Form eines endlosen Sees, nach dem Zufallsprinzip mit der gleichen Art von Elementen bestückt, aus denen auch das Wesen selbst aufgebaut war. Die Körperteile der Kreatur waren so angeordnet, dass sie aus drei Haupteinheiten und einem äußerst wichtigen Anhängsel bestanden. In gewissem Sinne konnte man von Neumanns selbstreproduzierenden Automaten als ein Trio symbiotischer Strukturen sehen. Die erste, Komponente A, war eine Art Fabrik, die Materialien aus dem See entnahm und sie entsprechend bestimmter Anweisungen zusammensetzte, die von einem anderen Teil geliefert wurden. Der zweite Teil dieses Dreigestirns, Komponente B, fungierte als Duplikator: Seine Aufgabe war es, Anweisungen zu lesen und zu kopieren. Komponente C war der Kontrollmechanismus, also der Rechner selbst. Die Anweisungen enthielten Komponente D. In einer langen Folge angeordnet, wurden sie wie von einem Lochstreifen abgelesen. Physikalisch bestanden sie aus einer langen Reihe von Trägern, die sägeblattartig ungeordnet waren. An jeder Verzweigungsstelle bedeutete die An- oder Abwesenheit eines solchen Trägers eine „1“ beziehungsweise eine „0“. Wenn man also den Träger an einer solchen Verzweigung platzierte, war es dasselbe, als würde man eine Markierung auf dem Band vornehmen beziehungsweise ein Bit im Computerspeicher setzen. Das Lesen dieses langen Bandes - von Trägern ergab binäre Zahlen, die nach dem Entschlüsseln ihre Informationen preisgaben. Wenn man davon ausging, dass die Reihe von Abschnitten ziemlich lang war, unter Umständen sogar viele Kilometer, konnte die Art der Information außerordentlich komplex sein, umfassender als beispielsweise die Informationsmenge in einem Buch. Und hier begann der Prozess der Selbstreproduktion. Der Automat erwachte sozusagen zum Leben, indem er die Informationen des Trägerbandes las. Komponente C nahm die Anweisungen auf, fütterte damit den Duplikator (Komponente B), der diese Anweisungen kopierte und die Duplikate an die Fabrik gab, während er das Original speicherte.

Nach Aufnahme der Informationen schwamm die Fabrik hinaus auf den weitläufigen See und prüfte die zahlreichen vorübergleitenden Einzelteile auf ihre Verwertbarkeit, denn ihre Aufgabe war es, nach einem bestimmten Teil Ausschau zu halten, mit dem sie die Konstruktion eines Nachkommen beginnen könnte. Wenn das Teil gefunden war, ergriff sie es mit ihrer Hand, hielt es so lange fest, bis das nächste Teil gefunden war, und verschweißte dann beide Teile. Sobald diese Konstruktion vollendet war, baute der Automat eine zweite Fabrik sowie einen weiteren Duplikator und Computer. Es fehlte allerdings noch ein entscheidender Schritt. Und eben dieser Schritt machte die klarsichtige Genialität des von Neumannschen Denkmodells aus. Realisiert wurde er, sobald die Komponente D, also das lange, beim elterlichen Duplikator gespeicherte Trägerband, in einen neuen Nachkommen eingepflanzt wurde. Indem das neue Wesen mit einer Kopie der reproduzierenden Anweisungen ausgestattet wurde, war es sozusagen vollendet und damit fähig, diesen Vorgang selbst zu wiederholen.

Die Speicherkapazität ihres Endlosbandes machte die Turing-Maschine so außerordentlich vielseitig. Mit dessen gesamter Information könnte die Turing-Maschine auch denkbar unterschiedlichste Funktionen einer anderen Maschine nachahmen. Tatsächlich konnte Turing auch beweisen, dass eine solche Maschine, die universelle Turing-Maschine, ein universeller Computer ist (es gibt auch einen mathematischen Beweis, der diese Behauptung belegt). Das bedeutet folgendes: Wenn dieser Maschine genügend Zeit gegeben wird, kann sie jede Maschine nachahmen, deren Verhalten in allen Einzelheiten beschrieben ist. Eine solche Maschine kann nicht nur die Funktionen mathematischer Maschinen nachahmen, sondern auch die Funktionen der Natur. Aus einem gewissen Blickwinkel kann nahezu alles mittels einer Finite State Machine analysiert werden, denn was bestimmte das Verhalten irgendeiner Maschine, wenn nicht ihr Innenleben (ihr Status) und das, was sie aus ihrer Umgebung geliefert bekam (Informationen vom Band)?

Diese Verkettung von Ereignissen wird denjenigen sehr bekannt vorkommen, die mit der Wirkungsweise biologischer Systeme vertraut sind, da von Neumanns Automat, obwohl bereits einige Jahre vor Entdeckung des DNS-Moleküls vorgestellt, im Wesentlichen den Reproduktionsprozess des natürlichen Lebens widerspiegelt. So ist es beispielsweise ziemlich eindeutig, dass die Folgen von Anweisungen (Bänder) die Funktion eines Gens wahrnehmen. Es ist auch klar, dass der Kopiermechanismus B den fundamentalen Schritt der Reproduktion ausführt, die Duplikation des genetischen Materials, die auch eindeutig die wichtigste Operation in der Vervielfältigung lebender Zellen ist. Es ist ebenfalls leicht zu erkennen, wie willkürliche Änderungen im System zur Ausprägung verschiedener, typischer Eigenschaften führen können, die normalerweise im Zusammenhang mit Mutationen auftreten, die zwar in aller Regel tödlich sind, aber andererseits auch die Chance bieten, die Reproduktion mit modifizierten Eigenschaften fortzuführen. Diese Automaten vermehrten sich nicht nur wie natürliche Lebewesen, sondern hatten langfristig gesehen auch die Fähigkeit, sich in eine komplexere Form als die des Originals weiterzuentwickeln, wiederum genau wie natürliche Lebewesen.

Statt zu schwimmen und nach etwas zu greifen, sah ein anderes Denkmodell für den Vervielfältigungsprozess dieser Maschine vor, dass sie Land in Besitz nehmen und es umgestalten sollte. Das Ganze erinnerte an einige geopolitische Brettspiele, bei denen die Spieler in Nachbarländer einfallen und sie erobern. Genaugenommen war es aber eine physikalische Interpretation dessen, was bei der natürlichen Fortpflanzung geschieht. Die Atome und Moleküle, die das neue Wesen, also den Nachkommen, ausmachen, kommen notwendigerweise aus der Umwelt. Die Idee, sozusagen die Idee des Lebens, war also, diese Materialien in ihrer ungeordneten Form einzusammeln und sie in die außerordentlich komplexe Organisation eines Lebewesens einzubauen. Könnte eine solche Maschine einen evolutionären Prozess durchlaufen? Möglicherweise ja, wenn man die Übergangsregeln so programmieren würde, dass eine winzige Zahl zufälliger Änderungen während des Prozesses der Vervielfältigung auftreten würde – einige der Bits könnten von »an« nach »aus« wechseln und umgekehrt. Das entspräche einer Mutation; man könnte auch ganz mutig sagen, es ist tatsächlich eine Mutation, und wie es für Mutationen charakteristisch ist, werden sie an die Nachkommen weitergegeben. Wenn eine solche Mutation die Anpassung der Maschine verbesserte, würde sie sich durch den Genpool der Maschinenpopulation verbreiten und sich dabei an die Regeln natürlicher Selektion halten. Im Laufe der Zeit würden dann die Auswirkungen der Evolution sichtbar werden. Diese Überlegungen warfen folgende Frage auf: Was geschieht, wenn diese Strukturen freigesetzt würden? Was kann aus ihnen entstehen? Sicherlich ist es weniger furchterregend, die Konsequenzen dieser Entwicklung zu verfolgen, wenn sie in Form von elektrischen Ladungen in einem Computerchip vorkommen und nicht in riesigen Fabriken, die den Lauf der Zivilisation verändern.

Zellularautomaten repräsentierten eine anschauliche, lebendige Welt, in der bestimmte Auswirkungen tatsächlich in Erscheinung traten. Da die Nichtvorhersagbarkeit zur Arbeit mit Zellularautomaten gehört und wichtige Hinweise zur Entschlüsselung ihrer Geheimnisse einfach durch verrückte Verknüpfungen zustande kamen, war nur schwer zu entscheiden, ob man seine Zeit vergeudet oder wissenschaftlich arbeitete. In einem ausreichend großen Maßstab müsste man wirklich lebende Anordnungen erkennen können, lebend in des Wortes eigentlicher Bedeutung, welche Definition man auch verwenden mag. Sie würden eh entwickeln und vermehren, sich um Territorien streiten, immer gegenteiliger werden und schließlich sogar ihre Doktorarbeit schreiben. Auf einem ausreichend großen Spielbrett – größer vielleicht als unser Universum, vielleicht auch von der Größe des Sonnensystems - würden Dinge dieser Art passieren. Aber würde diese künstlichen Organismen leben? Die Natur von Zellularautomaten war tatsächlich so geartet, dass viele KL-Forscher dies zugegeben hätten. Einige erklärten sogar, Zellularautomaten seien komplex genug, um ein ganzes Universum hervorzubringen, das dann auch noch ähnlich hoch entwickelt wäre wie das, in dem wir leben. Ehrlicherweise haben wir keinen Beweis dafür, dass unser Universum nicht auch ein Zellularautomat ist, der auf dem Computer eines ausgezeichneten Programmierers im Himmel läuft. Im Verlauf der Arbeit stellte sich heraus, dass die Kräfte, die in den Zellularautomaten am Werk waren, in bemerkenswerter Weise den Kräften der Natur ähnelten. In gewissem Sinne legten die Wissenschaftler bei ihren Experimenten mit Zellularautomaten die Entscheidungen in die Hände der Natur.

1 360,60 ₽