Читать книгу: «Extropia», страница 5
Die meisten KL-Forscher sehen Pflanzen, Tiere und auch Menschen als - sehr hoch entwickelte - Maschinen an. Maschinen, die prinzipiell vom Menschen herstellbar sind, unabhängig vom Material, das benötigt wird um sie zu erschaffen. Eine konsequente Betrachtung, wenn man Vitalismus u.a. mystischen Ballast weglässt. Mag das Verständnis auch leicht fallen - daran zu glauben bzw. davon überzeugt zu sein erfordert jedoch großes Vertrauen. Macht die Öffentlichkeit diesen großen philosophischen Sprung mit? Unterstützen virtuelle Lebensformen, die nur aus Information bestehen, dieses Konzept des Lebendigen, nach dem alle lebenden Organismen als bestimmte Arten von Maschinen gelten? Falls ja, dann ist die Vorstellung hinfällig, dass körperliche Form eine Vorbedingung für Leben sein muss. Der Gedankensprung, den man machen muss, ist der, dass man Maschinen als logisch organisierte Wesen auffasst. Das Material ist bei keinem Ding ausschlaggebend. Wenn es gelingt, seine logische Organisation in ein anderes Medium zu verpflanzen, kann man die gleiche Maschine erschaffen, denn es ist die Organisation, die eine solche Maschine ausmacht, und nicht das Material, aus dem sie besteht. Diesen Gedankensprung muss man machen. Eigentlich ist es ja auch nur ein kleiner Schritt - wie bei der kopernikanischen Wende. Allerdings sind die Konsequenzen enorm. Das Material des Lebens ist nicht eigentlich nicht materiell, weil Leben ein dynamischer physikalischer Prozess ist. Ließe sich dieser reproduzieren bzw. duplizieren, dann hätte man Leben erschaffen - unabhängig vom Material, also auch Virtuelles in einem Computer.
KL ist deshalb interessant, weil die Ausblicke dieser neuen Forschungsrichtung zum Teil mit dem Ursprung des wirklichen Lebens in Verbindung gebracht werden können. Im Grunde genommen ist es das Ziel der KL-Forscher, das zu vollbringen, was bisher nur einmal auf diesem Planeten geschehen ist, nämlich etwas Lebendiges aus zuvor toter Materie zu schaffen. Wie das tatsächlich geschieht, ist das bisher immer noch ungelöste Geheimnis des Ursprungs des Lebens, wobei die Herausforderung des KL-Gebietes darin besteht, diese erstaunliche Verwandlung routinemäßig zu realisieren. Umgekehrt wird aber auch das Wissen um den Ursprung des einzigen Beispiels von Leben, das wir kennen - das natürliche Leben, uns selbst eingeschlossen, unbezahlbare Hinweise für die Herstellung von anderen Lebensformen geben. Der Biologe Stuart Kauffman ist der Auffassung, dass die Chancen, die Entstehung des Lebens zu erklären, eigentlich gar nicht so schlecht sind, wie viele Leute glauben. Seine Vorstellungen hängen mit der Bedeutung von Selbstorganisation zusammen, die wiederum mit den bisher noch nicht formulierten Regeln in Verbindung steht, an deren Existenz Farmer und andere glauben und die ihrer Meinung nach teilweise sichtbar würde, wenn man die Idee des Künstlichen Lebens weiter verfolgte.
Künstliches Leben ist nach Kauffmans Auffassung ist der beste Weg, herauszufinden, wie komplexe Systeme so etwas wie Selbstorganisation, Anpassung, Evolution, Koevolution, Stoffwechsel und all diese Dinge hervorbringen können. Es ist eine Nachahmung der Biologie, wenngleich Biologen das bisher noch nicht wissen. Daraus wird eine Art neuartiger Hilfswissenschaft zur Biologie entstehen, speziell zur Untermauerung der Funktionsweise lebender Dinge. Diese neue Fachrichtung könnte ergründen, was die logische Struktur lebender Dinge ist. Die offensichtlich komplizierte uhrwerkartige Natur biologischer Realität ist überhaupt nicht so kompliziert, wenn man annimmt, dass ein zufälliger Satz von Computeranweisungen etwas so Komplexes wie Lebensprozesse hervorbringen kann. und die genetische Regulation kein detailliertes, sehr fehleranfälliges Computerprogramm ist; kein wohlgeordneter Ablauf, der von einem Superprogrammierer mit einem unglaublichen Sinn für Strukturierung geschaffen wurde wie es die Mehrzahl der Biologen annimmt. Auch aufgrund der biologischen Präzision fällt es schwer, sich vorzustellen, wie Leben aus einfachen Komponenten entsteht. Doch die Kräfte der Selbstorganisation sind bei allen möglichen komplizierten Verknüpfungen am Werk. Sie verringern den Zufall und arrangieren die Dinge in einer funktionsfähigen Ordnung nach dem Bottom-up-Prozess: Es gibt keinen übergeordneten Plan, um das Durcheinander zu beseitigen, aber die Akkumulation lokaler Aktionen treibt das gesamte System zu einem gerichteten Verhalten, das anhand seiner Anfangskonfiguration nicht voraussagbar ist. (Synergieeffekte?) Es sind die Kräfte der Selbstorganisation und kein auf Mikroebene entworfener Plan (kein "Intelligent Design") die u.a. die Genregulierung bestimmen. Könnte man die Arbeitsweise der Kräfte, die für Selbstorganisation und Komplexität verantwortlich sind, identifizieren, dann würde man auch ein lebensähnliches Verhalten vervielfältigen können, indem man eine Struktur für die internen Zusammenhänge und für die Evolution schaffte, welche von diesen Kräften profitierten.
Die Natur selbst würde die Organisation übernehmen. Es wäre dann vorstellbar, nicht nur Leben zu erschaffen, sondern auch neue Organismen, die viel komplexer sind, als ein menschlicher Designer sie sich vorstellen kann. Die Auswirkungen auf das Künstliche Leben wären enorm. In der Chaostheorie gibt es den „periodischer Attraktor“; eine antichaotische Kraft, die chaotische Systeme in erkennbare Muster treibt, und zwar mit der gleichen Sicherheit, mit der sich neu entstehender See mit Wasser füllt. Antichaos deutet darauf hin, dass scheinbar komplizierte, uhrwerkartige Konstruktionen, wie etwa die Genregulation beim Menschen, nicht so sehr von ihrer präzisen Konstruktion abhängen, die die Position und die Verknüpfung jeder Verbindungsstelle festlegt, sondern von den übergreifenden Möglichkeiten aller Netzwerke, die von begrenzten komplexen Reaktionen angetrieben werden - eine Fähigkeit, die offensichtlich zu einer Ordnung führt. Dieses Kauffman-Modell eröffnet einen Einblick in einen effizienten und andauernden Prozess der Selbstorganisation bei zahlreichen biologischen Phänomenen, angefangen bei der Zelldifferenzierung, über die Funktionen des Immunsystems bis hin zur Evolution und natürlich auch zur Entstehung des Lebens. Leben kann etwas sehr Nettes sein, ist aber, abgesehen von der Tatsache, dass es eine gewisse Realisierbarkeit erkennen lässt, nicht schlüssig zu belegen. Es gibt keinen Weg zu beweisen, dass ein solches simuliertes Schema vor Jahrmilliarden wirklich vorhanden war. Allerdings lässt sich die Kritik an Computersimulationen über den Ursprung des Lebens auch auf Millers Originalexperiment anwenden, denn es war ja auch nichts weiter als eine Simulation präbiotischer Bedingungen. Auf der anderen Seite bringt ein Computermodell, das auf einer lebensfähigen Chemie beruht und dann fortfährt, Leben aus Reaktionen hervorzuzaubern, die auf diese Chemie gegründet sind, durchaus etwas Brauchbares zustande. Hauptinteresse des simulierten Lebens gilt den hervorstechenden Merkmalen des Ursprungs des Lebens, um daraus ein Modell der Selbstorganisation zu fertigen. Als Ergebnis erhält man ein Modell der Selbstorganisation und des evolutionären Verhaltens.
Dieses Modell musste die Dinge nicht so wiedergeben, wie sie tatsächlich geschehen waren, sondern es gab etwas wieder, das passiert sein könnte. Tatsächlich war in diesem Modell wirklich etwas passiert. Eine alternative Form des Stoffwechsels lief ab, die auf einer Grammatik für die Verarbeitung von Zeichenfolgen beruhte und nicht auf Reaktionen zwischen Atomen in Chemikalien. Die Chemie mochte künstlich sein, was jedoch nicht bedeutete, dass man nichts von ihr lernen konnte, wenn man sie untersuchte, denn dass die Verbindungen logisch waren, konnte nicht widerlegt werden. Und so, wie die Computer-Boids des Computeranimators Craig Reynolds nicht etwa Schwarmverhalten simulierten, sondern wirklich Schwärme bildeten, zeigte auch das Kauffman-Farmer-Bagley-Computermodell keinen simulierten Stoffwechsel, sondern es besaß einen Stoffwechsel. Der Umstand, dass ein Computermodell ein Verhalten wiedergibt, das man nicht zwangsläufig in der Natur wiederfindet, kann dennoch als ermutigend betrachtet werden, denn bei aller Gegensätzlichkeit zu unserer Welt hilft es uns, unseren Horizont zu erweitern und um darüber nachzudenken, was wirklich bei der Evolution oder bei dieser Art von funktionaler Selbstorganisation passiert. Eine zunehmende Anzahl von künstlichen Modellen über die Entwicklung der Komplexität in präbiotischer Umgebung scheint Kauffmans These zu unterstützen, dass Leben zwangsläufig entstehen musste und sich nicht zufällig entwickelt hatte. Tatsächlich fanden dann auch andere KL-Forscher, dass künstliche Umgebungen einen fruchtbaren Boden für die Entstehung biologischer Verhaltensweisen aus zufälligen Interaktionen darstellen. Die erste KL-Arbeit des dänischen Physikers Steen Rasmussen betraf selbstreproduzierende Systeme über den Ursprung des Lebens, und das verlässliche Auftreten von Ordnung in diesen Experimenten veranlasste ihn dazu, andere Arten von Simulationen zu untersuchen, einschließlich solcher, die wenig Bezug zu den präbiotischen Zuständen auf der Erde hatten. Er hoffte, so auch alternative Ansätze über die Entstehung des Lebens zu finden, die wiederum Hinweise auf andere Varianten lebender, dynamischer Systeme geben könnten, die bisher nicht aufgetreten waren, weil das Leben auf der Erde sehr willkürlich einem anderen evolutionären Pfad gefolgt war.
Rasmussen entschied sich, ein Stoffwechselsystem zu entwickeln, dessen Grundlage die Art von Interaktion war, die Computern eigen ist, eine künstliche Chemie, die auf Anweisungen für den Computer beruht. Rasmussen und seine Mitarbeiter nannten ihre Simulation VENUS: zum einen als Abkürzung für „Virtual Evolution in a Nonstochastic Universe Simulator“ (Künstliche Evolution in einem nichtstochastischen, universellen Simulator) und zum anderen in Anlehnung an die römische Göttin der Fruchtbarkeit, Liebe und Schönheit, in der Hoffnung, interessante, lebensähnliche Fähigkeiten schaffen zu können«. Im wesentlichen war VENUS eine Ursuppe aus Informationen, ausgestattet mit einem Regelwerk, von dem Rasmussen hoffte, dass es die Fähigkeit zur Selbstorganisation haben würde und Merkmale entwickeln könnte, die denen des Lebens entsprachen. Rasmussen erklärte: "... in bisherigen quantitativen Modellen über den Ursprung des Lebens halten die Leute immer nur einen bestimmten Weg für den richtigen und versuchen, ihr System an ihm auszurichten. Die Beschränkung dabei ist, dass das Modell genau diesem Weg folgen muss und dabei nur offenkundig wird, was für diesen Weg wichtig ist. Was bisher gefehlt hat, ist die Offenheit nach allen Seiten, dass man dem System also nicht vorschreibt, woran es sich zu orientieren hat. Das entscheidet das System selbst; es kann einer von unendlich vielen Wegen mit unbekanntem Ziel sein. Es können Sackgassen sein, und das System kann zugrunde gehen, was auch manchmal passiert ... oder es kommt etwas vollkommen Neues dabei heraus. Wir versuchen, einen Zoo aufzubauen, mit allem, was künstliche Chemie herzustellen vermag. Wir hoffen, mit diesem Zoo in der Lage zu sein, einige generelle Prinzipien zu finden, mit denen wir dann etwas Richtiges herstellen können."
So konnte beispielsweise kein Leben entstehen, wenn kein Energiefluss vorhanden war. Hier kam also der zweite Hauptsatz der Thermodynamik zur Wirkung und wenn dieser in der VENUS-Welt nicht gegolten hätte, wäre mit Sicherheit irgendetwas ziemlich faul gewesen. Auch die Tatsache, unterschiedliche Arten von evolutionären Bedingungen verschiedene evolutionäre Entwicklungspfade bedingten, war zu erwarten gewesen. Interessanter waren da schon bestimmte Phänomene, die viele anerkannten, die aber bisher noch unbewiesene Hypothesen über den Ursprung des Lebens zu bestätigen schienen. Selbst kleine Unregelmäßigkeiten in der Umwelt und zufällige historische Ereignisse waren potentiell in der Lage, große Wandlungen in der Evolution hervorzurufen. Manchmal konnte ein mikroskopisch kleines Ereignis die Entstehung des Lebens verhindern, sogar dann, wenn die übrigen Bedingungen ansonsten optimal waren, und andere Male folgte auf ein ungewöhnliches Ereignis, das normalerweise durch eine Selbstkorrektur im System relativiert worden wäre, ein noch ungewöhnlicheres Ereignis, so dass aufgrund der Kombination dieser Vorfälle eine im Entstehen begriffene Lebensform ausgelöscht wurde. Demonstrieren konnte man diese Art von Kombination, die in einem K.o. endete, wenn eine besonders effiziente selbstreplizierende Serie dafür sorgte, dass der Kern mit ihren Organismen überflutet wurde. Das System stellte sich selbst mehrmals neu ein, wobei die Organismen ihr Wachstum stabilisierten und sich zu einer Lebensform wandelten, die sich nur in jedem zweiten Zeitabschnitt reproduzierte. Doch durch weitere Unregelmäßigkeiten konnten diese außer Gefecht gesetzt werden, noch ehe sie ihre Feineinstellung beendet hatten. Die Haupterkenntnis, die Rasmussen aus VENUS gewann, betraf wohl die imperative Qualität kooperierender Strukturen. Wie in selbstreproduzierenden Systemen hing die Evolution eines lebensfähigen, lebensähnlichen Systems von den symbiotischen Strukturen innerhalb des Systems ab.
Allein die Idee, diese Sache überhaupt mit einer solchen Fragestellung zu verbinden, war zu ketzerisch. Dennoch, so Rasmussen, passierte hier etwas. Das System war weniger eine Simulation als vielmehr eine Alternative dazu. Was es genau war, blieb undefiniert, doch es war etwas, und allein diese Tatsache rechtfertigte bereits das Experiment. Wenn wir glauben, dass es möglich ist, die Logik des Lebens zu extrahieren und in ein anderes System zu stecken, dann müssen wir auch annehmen, dass es eine bestimmte Realität innerhalb der VENUS-Welt gibt, die genauso real ist wie unsere Wirklichkeit, waren seine Schlussfolgerungen. Rasmussens Ansatz war klassisch für die KL-Forschung: Man hatte eine Sicht zu akzeptieren, bei der die intuitive Beurteilung zuerst mal zurückgestellt werden musste. Man riskierte also einen Sprung ins kalte Wasser, der nur wegen der Geschlossenheit des Systems und durch logische Untermauerung der alternativen Universen etwas erleichtert wurde. Der dänische Physiker erkannte die Schwierigkeiten, die durch diesen Schritt hervorgerufen wurden, er bestand aber leidenschaftlich darauf, dass etwas unternommen werden müsse. Zwischen Information, Leben und Wirklichkeit gibt es nun folgenden Bezug: Wenn ein universeller Computer tatsächlich universal ist und jeden Prozess nachbilden kann (Postulat von A. Turing), die Substanz des Lebens ein Prozess ist (Postulat von J.v. Neumann) und es Merkmale gibt, durch die lebende von nichtlebenden Dingen unterschieden werden können, dann ist Computerleben möglich. Wenn diese Computerlebensformen genauso leben wie wir, erlebt ein solcher künstlicher Organismus eine Wirklichkeit, die für ihn genauso echt ist, wie es unsere „wirkliche“ Realität für uns ist. Daraus folgt, dass unsre Realität (R1) und seine (R2) einen identischen ontologischen Status haben. Obwohl R2 in R1 eingebettet ist, ist R2 dennoch unabhängig von R1!
Realität und Physik
Die letzte Aussage beinhaltete eine wunderbare Rechtfertigung die Erschaffung künstlicher Universen. Wenn Rasmussens Sicht der Realität einmal akzeptiert war, würde sich eine Reihe einzigartige Möglichkeiten ergeben. Zum ersten Mal wäre es dann möglich, Qualitäten des Lebens im Allgemeinen von der Beschaffenheit einer, möglicherweise anomaler Lebensformen zu trennen, die sich bisher VENUS-Welt offenbart hatten. Was geschah nun in der VENUS-Welt? Zellularautomaten und Computergenerationen von selbstregulierenden Netzwerken zeigen einigen Qualitäten, die man bisher nur dem Leben zuschreibt. d.h. nicht, dass diese Systeme lebten, aber sie befanden sich in einem Bereich zwischen der Unbelebtheit eines Steins und der Vitalität eines Bakteriums – Protoleben gewissermaßen. KI-Forscher synthetisierten in vielen dieser Systeme Vorformen des Lebens, aus denen sich explosionsartig künstliche Chemie und Physik und künstliche Welten entwickelten, in denen lebensähnliches Verhalten entstand. Irgendwann in der Erdfrühgeschichte gab es noch kein biologisches Leben. Da es aber heute zweifellos existiert, muss es einen Zeitpunkt seiner Entstehung gegeben haben; einen Zeitpunkt, ab dem sich die unbelebte physikalische Natur neu organisierte und komplexisierte. Es scheint eine grundlegende organisatorische Kraft zu geben, die dazu führt, dass sich Leben spontan entwickelt. Etwas zu erschaffen, dass „Leben“ genannt werden kann, scheint keinen Naturgesetzen o.a. Hindernissen zu widersprechen. Dagegen, dass wir Leben, vor allem seine Entstehung verstehen werden, gibt es keine prinzipiellen Hindernisse. Die Natur, die Biosphäre, zeigt die Richtung. Wenn Forscher lange und oft genug Versuche durchführen und messen, was sie wann und wie gemacht haben, werden sie eines Tages mit hoher Wahrscheinlichkeit die „Kräfte“ verstehen, die dazu führten. Die neue Methode der KL-Experimente hat das Potenzial, uns generell ein tieferes, umfassendes Verständnis der biologischen Geheimnisse zu vermitteln, einschließlich derer, die mit der Entstehung des Lebens zu tun haben. Dem KL-Gebiet zugehörig sind aber auch im Gegensatz zu computerisierten Ansätzen Versuche mit Enzymen, die ihre Replikationsaktivität selbst übernehmen sollen; im Falle eines Erfolges handelt es sich auch hier dann um KL: ein selbstreplizierendes System, das auf den Darwinistischen Evolutionsgesetzen beruht – eine Definition des Phänomens Leben aus Sicht der Laborforscher, die versuchen, seine Entstehung in einem Reagenzglas nachzuvollziehen.
Auch nach Ansicht von Kybernetikern[5] sind biologische Organismen im Wesentlichen Maschinen. Ist diese (philosophische) Annahme berechtigt, dann müsste es uns möglich sein, Dinge zu bauen bzw. Wesen zu erschaffen, die lebensähnlich sind. Der Kybernetik-Ansatz geht stillschweigend von einer analogen Fusion aus Künstlichem und Natürlichem aus. In ihr ist die Welt ein kontinuierlicher und kein digitaler Prozess. Kybernetische Vorführmodelle waren früher homöostatische Vehikel, die durch rückgekoppelte Schleifen in einem bestehenden Gleichgewicht gehalten wurden und dadurch etwas wie Instinkt besaßen. Doch dann nahm die Technologie eine digitale Wende und der Ansatz der rechnergestützten Biologie, die auf fassbaren Informationen beruht, ersetzte die analoge Kybernetik. Dennoch führte die Idee einer gemeinsamen Grundlage von Biologie und künstlicher Simulation dazu, dass Maschinen durch das Bottom-up-Prinzip dazu gebracht werden können, sich ähnlich wie Tiere an ihre Umgebung anzupassen, indem man mit einer zufälligen Simulation begann und die Natur „hinein programmierte“, die daraufhin ihr Werk – nämlich Evolution – beginnen konnte. Hätte man dann genug über die Mechanismen der Natur gelernt, ließen sich diese in mathematische Formeln prägen und dann würden lebensähnliche Formen entstehen. Doch die Prämisse der computerorientierten KI-Forschung war, dass sich Computer nach dem entgegengesetzten Top-down-Ansatz wie Organismen verhalten könnten. Nach diesem Ansatz sollten sich Strukturen nicht entwickeln, sondern wurden dem System aufgezwungen. In der Natur erfolgen zahlreiche Vorgänge, aus denen sich globales Verhalten entwickelt, zeitlich parallel, während bei den Computersimulationen die einzelnen Vorgänge bzw. Rechenschritte aufgrund der seriellen Computerstruktur nacheinander abliefen. Bis der Parallelrechner erfunden wurde; eine Maschine, die über mehrere, gleichzeitig arbeitende Prozessoren verfügt. Die Evolution ist ähnlich wie das Lernen selbst eine Art von Anpassung an die Umwelt, doch im Unterschied zum Lernen ist sie über Generationen hinweg wirksam. Evolution ist gegenüber dem Lernen auch die bessere Form der Anpassung, denn ein Organismus ohne Augen kann zwar zu seinen Lebzeiten keine Augen entwickeln, aber der Vorfahre könnte einer mit Augen sein. Wenn die Evolution bei Lebewesen funktioniert, warum dann nicht auch bei Computerprogrammen? Dazu könnte man mit einer ungeordneten Struktur beginnen, um dann den Wirkungsmechanismus der Natur bzw. der Biosphäre nachzuahmen und dann sich Verhalten entwickeln zu lassen. Der Prozess der gleichzeitigen Reproduktion aller Organismen einer Generation verliefe analog zur Arbeitsweise der Natur, in der verschiedene Prozesse ebenfalls gleichzeitig abgewickelt werden. Die Evolution lässt sich als kreativer Prozess verstehen, als Fähigkeit, aus Nichts etwas zu machen.
Genetischer Algorithmus
Mit der Einführung des genetischen Algorithmus – GA – in die KL-Forschung durch J.H. Holland konnte die Arbeitsweise der Evolution logisch reproduziert werden. Ein GA ist eine Art Formel (oder auch ein Rezept oder ein Schlüssel) zur allgemeinen Problemlösung. Der GA beruht auf genetischen Prinzipien. Er bedient sich der Evolution, um optimierte Computerfunktionen zu entwickeln. Außerdem ermöglicht er einen Einblick in die Arbeitsweise der Evolution. Mit dem GA lassen sich natürliche Phänomene untersuchen, denn er lehnt sich an natürliche Prinzipien an und verkörpert die Hauptmerkmale der Evolution; damit verhält er sich wie ein Organismus. Der GA beruht auf einem essentiellen, funktionalen Antriebsmechanismus, der mit der genetischen Evolution verbunden ist. Er benutzt diese, um ein mit der Natur vergleichbares Verhalten in der synthetischen Welt zu erzeugen. Außerdem stützt er die These, dass die zentrale Information sowohl in biologischen als auch in künstlichen Systemen auf zweierlei Weise betrachtet werden muss; nämlich als genetische Information, die verdoppelt wird und als Instruktion, die ausgeführt werden muss. Der GA erzeugt robuste Programme und künstliche Anpassungsleistung mithilfe der Mechanismen der Evolution. Dass sich der GA sehr nahe an der natürlichen Fortpflanzung orientiert, wird ersichtlich im Vergleich mit der biologischen Reproduktion. Im Unterschied zu diploiden Zellen, die einen doppelten Chromosomensatz aus mütterlichen und väterlichen Erbanlagen enthalten, sind Gameten – Zellen, die für die Fortpflanzung zuständig sind – haploid. Während der Meiose können Teile der Chromosomen während des „Crossing-over“, eines Überkreuzens der Chromatiden, untereinander ausgetauscht werden, wodurch die Gameten-Chromosomen sowohl mütterliche als auch väterliche Gene bekommen können. Während der Paarung verschmelzen 2 Gameten wieder zu einer diploiden Zelle; Gene können dabei mutieren und den Phänotyp[6] beeinflussen.
Der GA übersetzt diesen Prozess in den Bereich der Logik und Mathematik, wobei das Genom als Kette binärer Zahlen wiedergegeben wird, die als Chromosom angesehen werden kann, auf dem die Gene an bestimmten Orten angesiedelt sind. „Allele“ sind wiederum unterschiedliche Variationen der Gene. Z.B. kann das Gen für Augenfarbe die Allele für braune oder blaue Pigmente enthalten. Bei einem GA kann jede markierte Stelle auf den Ketten als Gen gedeutet werden; die Allele sind hier Sätze von binären Alternativen, also Gruppen von Einsen und Nullen, die sich an bestimmten Orten der Ketten befinden. Der GA ist im Gegensatz zur natürlichen Evolution, die Mega- und Gigajahre braucht, wesentlich schneller, um Probleme zu lösen. In schnellen Computern durchlaufen Millionen und Milliarden von Generationen eine künstliche Evolution während einer Mittagspause. GAs bewirken bei künstlich-virtuellen Lebensformen, dass eingebaute Mutationen kaum Einfluss auf die Anpassung an das künstliche Ökosystem haben. Z.B. hatte die künstliche Welt von „Polyworld“ nur durch Benutzung eines Crossing-over und nicht aufgrund von Mutationen nicht nur lebensähnliche Verhaltensweisen aus ursprünglich zufälligen Genotypen hervorgebracht, sondern sogar zu einer Spezialisierung bzw. Artenbildung bei Organismen geführt. Angesichts dieser Forschungen scheint die Bedeutung von Mutationen für die Evolution weit überschätzt worden zu sein; das Crossing-over bzw. die Rekombination stellt sich als weit bedeutender heraus. Mutationen kommen 1018-mal seltener vor als das Crossing-over. Etwa 1 von 107 Genen ist während des Reproduktionsprozesses von einer Mutation betroffen. Es ist eine Ironie, dass der scheinbar überragend wichtige Prozess so viel seltener vorkommt als der als unwichtig angesehene. Dass die anerkannte biologische Lehrmeinung immer noch davon ausgeht, dass Mutationen sehr viel wichtiger seien als Rekombinationen, könnte viele Mathematiker und Informatiker davon abgehalten haben, Evolutionsmodelle zu konstruieren. Die Simulation eines biologischen Systems, dass von den gleichen Gesetzen und Kräften angetrieben wird, die auch für die natürliche Evolution gelten und verantwortlich sind, müsste neue und bisher nicht verfügbare Einsichten in diesen Prozess bringen. In KL-Simulationen können durch das Crossing-over wichtige und gut angepasste Bausteine in der nächsten Generation übernommen werden und bilden die Basis für eine erfolgreiche Genomentwicklung. Treffen erfolgreiche Blöcke zusammen, entstehen neue und innovative Ansätze für Problemlösungen in der artifiziellen Umwelt. Damit liefert der Prozess das, was der größte Vorteil der Evolution ist – die ständige Erneuerung beim Versuch, sich besser anzupassen. Dass lokale Muster etwas Größeres, Umfassenderes erzeugen können, beweisen bereits Zellularautomaten.
Wie das funktioniert, erklärt das „Schematheorem“ (von J.H. Holland). Es erklärt, wie Bausteine ihre Kräfte und Fähigkeiten in GAs ummanifestieren und was die Grundlage für die populationsweite Erhaltung von Genen in der natürlichen Biologie ist. „Schema“ steht hier für eine „Ähnlichkeitsschablone“, die alle Zahlenketten beschreibt, die einen o. mehrere Bausteine enthält. Jede Kette, die diese Bausteine enthält, ist ein Beispiel für das Schema, egal welche Zahlen die Kette sonst noch enthält. Wenn nun eine gewisse Genkombination bei einem GA-Organismus zu einem bestimmten Phänotyp führt und das Chromosom während der Rekombination (= Crossing-over) an einem vorbestimmten Punkt gespalten wird, werden einige Allele durch Partnerallele ersetzt. Die Wahrscheinlichkeit, dass eine Allele-Kombination dabei verloren geht, ist direkt proportional zu ihrer Entfernung voneinander auf dem Chromosom. Dass ein Baustein gespalten wird, ist dann umso unwahrscheinlicher, je kompakter er ist. Bei der großen Mehrheit der virtuellen KL-Reproduktionen ist die Kombination auch in der nächsten Generation vorhanden. Entwickelt ein kompakter Baustein, der aus sehr wenigen und außerdem benachbarten Bits besteht, eine zusätzliche Anpassung, kann sich dieses Verhalten mit großer Wahrscheinlichkeit auch im Genpool durchsetzen. Durch seine Kompaktheit übersteht der Baustein die Rekombinationen und kann so auch die nächste Generation überleben. Mit jedem Generationswechsel steigt seine Überlebensfähigkeit und Vermehrungshäufigkeit, denn die mit seinen Eigenschaften ausgestatteten KL-Organismen sind sichere Reproduktionskandidaten. Jeder Nachkomme dagegen, der den Baustein spaltete, oder sich durch Genmutationen veränderte, war weniger überlebensfähig und weniger für die Fortpflanzung geeignet. Das Schematheorem erklärt also, wie Genkombinationen, die zu klugen Verhaltensweisen führen, bestehen bleiben, nachdem sie durch zufälliges Crossing-over oder durch Mutationen entstanden. In den KL-Experimenten konnten einzelne Ketten einer bestimmten Generation überprüft werden und umweltbezogene Ansätze ausgewählt werden, indem entsprechende Bausteine isoliert wurden. Bei der Untersuchung der Schemata verfolgte man, wie sich die Bausteine ausbreiteten und zusammen wirkten. Die KL-Forscher konnten erkennen, wie sich die gesamte Population virtueller Lebensformen über Generationen hinweg an ihre synthetische Umwelt anpasste.
Auch echte Gengruppen arbeiten nach dem Schematheorem (von J.H. Holland). Es beweist, dass das Crossing-over bzw. die Rekombination die eigentliche treibende Kraft der genetischen Evolution ist. Dieser Dogmenwechsel vollzieht sich bei den Biologen jedoch nur zögernd, weil die Hinweise aus mathematischen Modellen kommen, statt aus der Laborbiologie. Immer noch geben Biologen nur ungern zu, dass GAs nicht nur Simulationen der Evolution, sondern tatsächlich Beispiele für sie sind. Ebenso wie künstliche Vögel namens „boids“ Schwärme bildeten und echtes Schwarmverhalten entwickelten. Eine Ausnahme unter den Biologen ist R. Dawkins, der grafische Computerorganismen namens „Biomorphe“ entwickelte, einfache Strichzeichnungen, deren Aussehen von Parametern beeinflusst wurde, die Merkmale wie Verzweigung, Gliederung und Struktur bestimmten. Für ihn waren diese Parameter Gene, die die durch Mutation beeinflusst werden konnten.
Wie auch die GAs entwickelten sich die Biomorphe durch künstliche Selektion. Ihre Angepasstheit wurde subjektiv von der Person bestimmt, die zufällig gerade den Computer bediente. Ein Reproduktions- und Mutationsalgorithmus erzeugte Nachkommen der Überlebenden. Die Idee dahinter war, inwieweit sich die Biomorphe zu etwas ganz anderem als das zufällig gewählte Original entwickeln konnten. Dawkins Computergrafiken entwickelten sich schnell über die Pflanzenwelt hinaus in die Insektenwelt; es entstanden u.a. Kerbtiere, für die die irdische Natur bzw. Biosphäre Gigajahre brauchte; der Computer dagegen nur Minuten. Die Insekten bekamen bald Gesellschaft von anderen Lebensformen. „Biomorphland“ wurde zu einem komplexen Ökosystem, indem nicht nur Kreaturen wie Skorpione und Bienen entstanden, sondern auch Spinnen, Fledermäuse und Vögel. Sogar (menschlich-)technische Schöpfungen wie Düsenflugzeuge und Mondlandefähren entwickelten sich. Das Computerspiel folgte dennoch den Regeln der Natur. Die Entwicklung der Wesen war kein Schöpfungsakt, sondern man entdeckte die Wesen, da sie in gewissem Sinn als mögliche Permutationen eines bereits vorhandenen Satzes von Genen und einer gewissen Anzahl von Mutationen bereits vorhanden waren. „Biomorphland“ lässt sich auch als „Genetic Space“ auffassen, als eine Art mathematischen Atlasses, der alle möglichen Lebensformen topografisch einordnet. Wesen mit identischer Genzusammensetzung teilen sich ein Biotop; Wesen mit nur einer Mutation leben in direkter Nähe usw. je unterschiedlicher die Genotypen waren, umso weiter waren sie vom Ursprungsort entfernt. Ein Insekt, das sich durch 29 Mutationen von seinem Urahn entfernt hatte, befand sich, in genetischen Abständen gemessen, 28 Schritte weiter weg; da es aber für jede Mutation etwa 0,5 Billionen verschiedener Variationsmöglichkeiten gibt, (jedes seiner 9 Gene hat 19 mögliche Allele) beträgt die Anzahl möglicher Biomorphe nach 29 Schritten etwa 1,76 x 10322 .
Бесплатный фрагмент закончился.