Transhumanismus/Posthumanismus

29. Juli 2009

Unterschied Mensch-Maschine, oder: was ist der Mensch?

Filed under: eigene Artikel — Schlagwörter: , , , , , , — berndvo @ 07:36

Die Frage was eine Maschine von einem Menschen unterscheidet, scheint trivial zu sein. Ein Mensch lebt, eine Maschine ist tote Materie. Ein Mensch besteht aus organischem Material, eine Maschine aus Plastik und Metall. Ein Mensch kann denken, hat Bewusstsein und hat Würde. Alles Dinge, die eine Maschine nicht hat. Alles das ist richtig – noch! Aber was ist, wenn unsere Computer und ihre Programme immer intelligenter werden, wenn sie womöglich Bewusstsein entwickeln? Können wir für immer ausschließen, dass Maschinen etwas völlig anderes sind als Menschen?

Hier ist im Folgenden der gescheiterte Versuch beschrieben, einen prinzipiellen Unterschied zwischen Mensch und Maschine herauszufinden, der für alle Zeiten Bestand hat. Die Thesen und deren Widerlegung sind:

1.) Menschen bestehen aus organischem Material, Maschinen bestehen aus anorganischem Material.

Hier stellt sich die Frage, ob das überhaupt ein Unterschied ist, der von Bedeutung ist. Davon abgesehen können wir inzwischen Menschen mit künstlichen Gliedmaßen, künstlichen Organen und sogar künstlichen Sinnesorganen (z.B. Cochlear-Implantate) ausstatten. Sind diese „reparierten“ Menschen noch Menschen? Ab welchem Anteil anorganischer Materie ist das nicht mehr der Fall? Auf der anderen Seite finden auch durchaus organische Materialien Anwendung bei Maschinen und sogar bei Computern. So werden bereits digitale Signalprozessoren auf DNA-Basis diskutiert. Silizium ist als Basismaterial für Computerchips nicht für alle Zeiten festgelegt. Für die Zukunft werden durchaus auch andere Materialien diskutiert, wie z.B. Galliumarsenid (GaAs), Indiumphosphit (InP), Nanoröhren aus reinem Kohlenstoff usw.


2.) Menschen können sich selbst reproduzieren, Maschinen können das nicht.

Immerhin werden bereits heute die meisten Maschinen selbst von Maschinen hergestellt und mit Hilfe von Computern konstruiert. Aber kann eine einzelne Maschine sich selbst reproduzieren? Von Neumann hat dies bereits 1953 vorgeschlagen:

http://de.wikipedia.org/wiki/Von-Neumann-Sonde

Die nach Neumann genannte fiktive Maschine besteht aus einem Computer mit Speicher und einer universellen Mikrofabrikationsanlage (FAB). Diese Fabrikationsanlage kann im Schichtverfahren jedes beliebige Bauteil oder Gerät herstellen, einschließlich sich selbst. Das Schichtverfahren funktioniert ähnlich wie bei einem Tintenstrahldrucker, nur dass statt Tinte Kunststoffe, Metalle oder andere Materialien aufgesprüht und ausgehärtet werden. Zur Fabrikation einfacher Bauteile sind solche Geräte schon hergestellt worden, aber für Bauteile wie z.B. Computerchips fehlt es noch bei weitem an Auflösungsvermögen und geeigneten Verfahren. Generell kann man sagen, dass dieses Verfahren der Reproduktion nur in ganz speziellen Anwendungen, wie z.B. Raumsonden wirklich sinnvoll ist, aber zumindest im Prinzip scheint es möglich zu sein.

3.) Intelligente Maschinen (Computer) können an Problemen hängen bleiben und sich damit selbst blockieren, Menschen nicht.

Der Unterschied liegt darin, dass unsere heutigen Computer Aufgaben überwiegend seriell bearbeiten, während das Gehirn als neuronales Netz in hohem Maße parallel arbeitet. Die Entwicklung geht aber bei den Computern in Richtung auf parallele Informations­verarbeitung, so dass das Problem immer geringer wird.

4.) Das Gehirn des Menschen hat Zugriff auf nichtalgorithmische physikalische Effekte, die wir noch nicht kennen, Maschinen nicht (Position von Roger Penrose).

Selbst wenn das so wäre, was von fast allen Hirnforschern stark bezweifelt wird, gibt es keinen Grund, warum nicht auch Maschinen Zugriff zu diesen Effekten haben könnten. Roger Penrose selbst schließt das mittlerweile auch nicht mehr aus.

5.) Menschen haben Bewusstsein, Maschinen nicht.

Nach den Erkenntnissen der modernen Hirnforschung sind alle unsere geistigen Fähigkeiten auf die informationsverarbeitende Funktion der Nervenzellen (Neuronen) zurückzuführen. Ein Computer macht im Prinzip das Gleiche, nämlich Informationsverarbeitung. Bei der Informationsverarbeitung spielt aber der konkrete Aufbau der Hardware nur eine Rolle in Bezug auf die Effizienz aber nicht auf die Qualität. Unterschiede in der Hardware führen zu keinen prinzipiellen Unterschieden im Ergebnis der Informationsverarbeitung, solange es sich um universelle Rechenmaschinen handelt. Dies sind solche Maschinen die wir gemeinhin als Computer bezeichnen. Sie haben einen dem Problem angemessenen, genügend großen Speicher und verfügen über die Boolschen Funktionen UND, ODER und NICHT (Inversion). Mit ihnen lassen sich praktisch alle lösbaren Algorithmen auch lösen. Die dafür von der Informationstheorie für die fiktive, so genannte Turingmaschine geforderte, unendlich große Speicherkapazität ist für nahezu alle praktischen Probleme kein Hindernis, da die heute verfügbaren Speicher in der Regel ausreichend groß sind.  Eine noch so große und komplizierte Rechenmaschine kann prinzipiell nicht mehr, sondern sie kann es womöglich nur erheblich schneller. Weiterhin kann jeder Computer (mit genügend großem Speicher) jeden anderen simulieren.

Unsere bekannten Naturgesetze sind als Algorithmen (mathematische Formeln) darstellbar. Das trifft auch auf die Quantenmechanik zu. Ob der Zufall hierbei von grundlegender Natur ist, ist eine Frage der Interpretation der Quantenmechanik. Auf den Mensch bezogen gilt dann: wenn Denken auf den bekannten Naturgesetzen beruht und damit vollständig algorithmisch ist, dann kann eine Maschine im Prinzip alle Fähigkeiten des menschlichen Gehirns erwerben. Sollte der ontologische Zufall dabei eine entscheidende Rolle spielen, was stark zu bezweifeln ist, so könnten auch Maschinen mit entsprechender Hardware ausgestattet werden, die diesen Zugang verschafft. Damit sind also Maschinen mit Bewusstsein prinzipiell möglich.

Viele Hirnforscher würden dem zwar zustimmen, aber angesichts der Komplexität des Gehirns die praktische Realisierung kaum für möglich halten. Es ist sicher richtig, dass man im Moment noch weit davon entfernt ist, Bewusstsein direkt programmieren zu können, aber immerhin hat Dörner in seinem Buch „Bauplan für eine Seele“ gezeigt, dass es zumindest im Prinzip möglich ist. Es gibt aber noch die andere Möglichkeit, dass man die Evolution des Bewusstseins in einem Großrechner im Schnellverfahren nachvollzieht. Dazu müsste man in einer virtuellen Welt eine Reihe von virtuellen Wesen mit jeweils einem umfangreichen, leistungsfähigen neuronalen Netz programmieren, die über eigene „Sinnesorgane“ verfügen und die Möglichkeit besitzen, aktiv ihre Umwelt zu erkunden und Erfahrungen zu sammeln. Es reicht dabei eine Grundprogrammierung aus, die die Maschinen von Anfang an in die Lage versetzt, Erfahrungen zu sammeln. Weiterhin muss es Grundoptimierungsziele geben, die eine Bewertung der Erfahrungen ermöglichen. Ohne solche Ziele sind die Maschinen nicht in der Lage zu lernen. Ähnlich wie bei den Menschen müssen diese Ziele einen gewissen Selbsterhaltungstrieb und so etwas wie Neugier enthalten. Eine auf diese Weise optimierte Maschine kann dann schließlich als Hardware aufgebaut werden und in die reale Welt entlassen werden. Die für die Optimierung erforderliche, extreme Rechenleistung wird in wenigen Jahren zur Verfügung stehen.

6.) Menschen haben Würde und Moral, Maschinen nicht.

Grundlagen für Würde und Moral sind Bewusstsein, Urteilskraft und Vernunft. Wenn alle diese Dinge im menschlichen Gehirn auf der Basis der bekannten Naturgesetze erzeugt werden, gibt es keinen Grund, warum diese Dinge nicht auch mit Maschinen erzeugt werden können.

7.) Menschen haben Gefühle, Maschinen nicht.

Gefühle werden durch unseren Hormonspiegel und durch den Input an Informationen von der Außenwelt erzeugt. Auch hier gilt: Wenn sich die Erzeugung von Gefühlen im Rahmen der bekannten Naturgesetze abspielt, so gibt es keinen Grund, warum Maschinen nicht auch Gefühle entwickeln können. Die Gefühle anderer Menschen können wir ausschließlich über deren Verhalten und durch Kommunikation mit ihnen feststellen. Verhalten sich Maschinen (z.B. menschenähnliche Roboter) gleichermaßen, so gibt es keinen Grund, ihnen Gefühle abzusprechen.

8.) Menschen haben eine Seele, Maschinen nicht.

Der Begriff der Seele, so wie von Seiten der Religionen gebraucht wird, beinhaltet alles das, was die Person ausmacht, ihre Erinnerungen, ihre Fähigkeiten und ihre Persönlichkeit. Zusätzlich gilt, dass die Seele unsterblich ist. Nun wissen wir aber, dass unser Körper nach dem Tode zerfällt und mit ihm auch alle Fähigkeiten des Gehirns. Für die Annahme einer mystischen Substanz als Träger unserer Seele gibt es keinerlei Anhaltspunkte. Der Begriff der Seele ist also ein konstruierter Begriff, der dem Wunschdenken von Religionsanhängern entstammt und keinerlei Bezug zur Wirklichkeit hat. Es gibt keine Seele, weder für Maschinen noch für Menschen.

9.) Menschen haben einen freien Willen, Maschinen nicht.

Wenn der Mensch wirklich über einen freien Willen (im Sinne I.Kants) verfügen sollte, was mittlerweile von der modernen Hirnforschung stark bezweifelt wird, so gibt es kein Naturgesetz, das diesen auf den Menschen beschränkt. Die Form des eingeschränkten Willens, die man als Handlungsfreiheit bezeichnet, ist problemlos auf Maschinen implementierbar, da sie auf algorithmischen Gesetzmäßigkeiten basiert. Fazit: wenn es einen freien Willen gibt, dann können ihn auch Maschinen haben, wenn nicht, dann stellt sich das Problem nicht.

Der Turing-Test
Wenn es dennoch tatsächlich prinzipielle Unterschiede zwischen Maschinen und Menschen gäbe, so müsste es auch ein objektives Verfahren geben, das in der Lage ist, dies im Einzelfall festzustellen. Wie könnte dieses Verfahren aussehen? Entscheidend ist ja nicht so sehr das Aussehen, sondern das was wirklich den Menschen ausmacht: Sein Geist, sein Bewusstsein, seine Würde. Stellen wir uns z.B. vor, man könnte Androiden herstellen, die äußerlich nicht von Menschen zu unterscheiden sind. Wie können wir feststellen ob diese Androiden über ein Bewusstsein verfügen? Oder anders ausgedrückt, gibt es eine Möglichkeit festzustellen, ob man einen Menschen oder eine Maschine vor sich hat, ohne dass wir gleich zu einem Metalldetektor oder einem Röntgengerät greifen?

Ausgehend von dem logischen Satz, dass zwei nicht unterscheidbare Dinge als gleich anzusehen sind, hat Alan Turing bereits 1950 den nach ihm benannten „Turing-Test“ vorgeschlagen. Bei diesem Test befragt der Experimentator einen Menschen und einen Computer (bzw. Androiden) über ein Computerterminal. Das Experiment ist so aufgebaut, das der Experimentator nicht sehen kann, mit welchem von beiden er gerade kommuniziert. Die Fragen sind dabei derart, dass zur Beantwortung reines Wissen nicht ausreicht, sondern bewusstes Denken notwendig ist. Ist der Experimentator nach eingehender Befragung nicht in der Lage, festzustellen, welche Antworten vom Computer und welche vom Menschen kommen, so ist dem Computer das gleiche Maß an bewusstem Denken zuzuschreiben, wie dem Menschen.

Gegen den Turing-Test gibt es von den Gegnern der künstlichen Intelligenz Einwände. Einmal könnte man z.B. den Computer so geschickt programmieren, dass er auf bestimmte Fragen vorgefertigte, menschliche Antworten aus seinem Speicher wiedergibt, ohne dabei wirklich bewusst zu denken. Auf der anderen Seite wäre es möglich, dass der Computer aufgrund seiner etwas anderen Denkweise Antworten gibt, die ihn als Computer entlarven, obwohl er über ein Bewusstsein verfügt. Der Turing-Test wäre damit kein wirklich hundertprozentig sicherer Test. Allerdings könnte man den ersten Fall weitgehend unterbinden, indem man den Denkprozess des Computers einer genaueren Analyse unterzieht und sicherstellt, dass die Antworten wirklich durch Nachdenken und nicht ausschließlich durch vorher abgespeicherte Daten erzeugt werden.

http://spectrum.ieee.org/jun08/6329/4

In neuerer Zeit ist ein etwas verbesserter Turing-Test der folgenden Art vorgeschlagen worden: Die Testpersonen sehen sich einen Ausschnitt aus einem Film an und sollen ihn dann hinterher interpretieren, d.h. sie sollen die Handlung beschreiben und zusätzlich noch ihre eigenen Emotionen darlegen. Eine Maschine, die den Test besteht, wäre dann in jeder Hinsicht dem Menschen gleichzusetzen.

Zusammenfassung

Es lässt sich keine Eigenschaft finden, an der sich ein prinzipieller Unterschied zwischen Mensch und Maschine für alle Zeiten festmachen ließe. Damit lässt sich die alte philosophische Frage von I.Kant: „Was ist der Mensch“ folgendermaßen beantworten: Der Mensch ist eine Art Bio-Roboter. Für die (vermutlich vielen) Zweifler an dieser Feststellung hier noch zum Abschluss ein Wort des genialen Pioniers der Computertechnik, Alan Turing:

Sage mir, was du glaubst, worin genau sich ein Computer von einem Menschen unterscheidet, und ich werde einen Computer bauen, der deinen Glauben widerlegt.

Literatur

Breuer, R., (Chefredakteur), Angriff auf das Menschenbild, Spektrum der Wissenschaft, Gehirn & Geist, Dossier Nr. 1/2003

Brooks, R., Menschmaschinen, wie uns die Zukunftstechnologien neu erschaffen, Campus Verlag, Frankfurt New York 2002

Bryzek, J., Petersen, K., Mc Culley, W., Micromachines on the march, IEEE Spectrum, Mai 1994, S. 20–31

Casti, J.|L., Das Cambridge Quintett, Diana-Taschenbücher, München 2000

Dörner, D., Bauplan für eine Seele, Verlag Rowohlt Tb., Oktober 2001

Geyer, C., Hirnforschung und Willensfreiheit, zur Deutung der neuesten Experimente, Edition Suhrkamp 2387, 2004

Kant, I., Kritik der reinen Vernunft, 1787, Ausgabe Reclam, Stuttgart 1966

Merkle, R.|C., Self Replicating Systems and Molecular Manufacturing, Journal of the British Interplanetary Society, Vol. 45 (1992), S. 407–413

Penrose, R., The Emperor’s New Mind, Penguin Books, New York 1991 (deutsch unter dem Titel Computerdenken, Spektrum Akademischer Verlag, Heidelberg Berlin 1991)

Penrose, R., Schatten des Geistes, 1994, Ausgabe Spektrum Akademischer Verlag, Heidelberg Berlin 1995

Penrose, R., Das Große, das Kleine und der menschliche Geist, 1997, Ausgabe Spektrum Akademischer Verlag, Heidelberg Berlin 2002

Roth, G., Das Gehirn und seine Wirklichkeit, Suhrkamp Taschenbuch Wissenschaft 1275, Frankfurt 1996

Searle, J.|R., Die Wiederentdeckung des Geistes, 1992, Ausgabe Suhrkamp Verlag, Frankfurt/Main, 1. Auflage 1996

Singer, W., Ein neues Menschenbild?, Suhrkamp Taschenbuch Wissenschaft 1596, Frankfurt/Main 2003

Singer, W., Der Beobachter im Gehirn, Suhrkamp Taschenbuch Wissenschaft 1571, Frankfurt/Main 2002

Vowinkel, B., Maschinen mit Bewusstsein, wohin führt die künstliche Intelligenz? Verlag Wiley-VCH, 2006

9 Kommentare »

  1. Hat dies auf B.V. BLOG rebloggt und kommentierte:
    Transhumanismus

    Kommentar von BVK — 8. Juni 2015 @ 17:17

  2. Die Evolution hat das Gehirn des Menschen und seiner Vorgänger über hunderte von Millionen Jahren optimiert. Die „kognitive“ Rolle der Emotionen und motivationale Steuerungsmechanismen, die körperliche (und weniger körperliche) Bedürfnisse umfassen und diese lange Evolutionsgeschichte werden von der KI systematisch unterschätzt. Das alles kann man nicht so eben mal schnell zusammenlöten und -programmieren. Eine funktionierende Maschine auf dem Niveau des menschlichen Bewusstseins wird es vielleicht mal geben, aber viel später als man das sich so allgemein jetzt vorstellt.

    Kommentar von tom-ate — 13. Dezember 2011 @ 17:53

  3. Der Mensch ist doch auch nichts anderes als eine Maschine. Nur etwas fortgeschrittener ^^ … oder nicht ?

    Kommentar von Camshock — 12. Mai 2011 @ 23:04

  4. Ich sage nur, dass, wenn sie eines entwicklen, es sich von dem menschlichen unterscheiden würde.

    Kommentar von Freddy — 12. Mai 2011 @ 22:58

  5. „Alle unsere Sinnesorgane sind letztlich physikalische Messvorrichtungen mit begrenzter Auflösung. Insofern sehe ich da keinen prinzipiellen Unterschied zwischen analoger und digitaler Datenverarbeitung, da alle analogen Größen bis zur erforderlichen Genauigkeit mit endlich vielen Digits digitalisiert werden können.“

    Der Unterschied ergibt sich, wenn man „Körper und Geist“ evolviert. Wie schon gesagt, sollte der Körper ebenfalls einer Evolution unterworfen sein und Körper und Geist sind eine untrennbare Einheit. Da der Körper aber den Zugang zur Umwelt darstellt, ist hier der Mangel an Informationen bei einer Simulation spürbar.

    Kommentar von Stefa — 5. September 2009 @ 14:35

  6. Natürlich kann man die biologische Hardware nachbauen. Mir ging es darum, zu zeigen, dass die Hardware nicht weg-abstrahiert werden kann, sondern sehr wohl einen Einfluss auf die Verarbeitung hat. Das zeigt sich bei der Parallelverarbeitung sehr schön. Heutige Computer können problemlos parallel rechnen. Doch im Gegensatz zum Gehirn erzwingt deren Architektur Einschränkungen bei der Software. Das kann man nicht klar genug sagen. Die Computerhardware kann heutzutage durchaus echt parallel rechnen. Doch das Rechenmodell ist ein grundlegend anderes, was auch die Art und Weise der Software vorgibt. Die Berechenbarkeitstheorie hilft hier nur bedingt weiter. Denn selbst wenn deiner Argumentation folgt, wonach alle relevanten algorithmischen Probleme äquivalent in Computersystemen und Gehirn gelöst werden können, so gibt es dennoch Unterschiede. Für einen Computer ist die Berechnung der vierten Wurzel aus Pi auf 20 Stellen genau kein Thema. Für einen Menschen schon. Zwar kann ein Mensch es grundsätzlich ebenso berechnen – doch aufgrund der Hardwareunterschiede dauert das „etwas“ länger als die paar Millisekunden, die mein Mac gerade damit beschäftigt war. Also selbst wenn eine Berechenbarkeitsäquivalenz gegeben ist, gibt es Unterschiede alleine aufgrund der Hardware. Dass dies auf die abstrakteren Ebenen durchschlagen kann, sieht man bei der Parallelität. Und das ist bei einem aller Wahrscheinlichkeit nach emergenten Phänomen, wie dem menschlichen Bewusstsein, keinesfalls zu ignorieren.
    Ich sage dabei nicht, dass Maschinen kein Bewusstsein haben könnten. Ich sage nur, dass, wenn sie eines entwicklen, es sich von dem menschlichen unterscheiden würde. Zumindest mindestens solange, wie die Maschine ihre eigene Maschinenidentität hat und nicht bis ins Hardware-Detail einfach nur eine Kopie des Menschen ist.
    Kurz gesagt: Man kann nicht einfach das Fundament austauschen (Hardware) und erwarten, dass sich bei allen darauf aufbauenden Schichten (Software) daraus keine Veränderungen ergben.

    Die Autoren des besagten „How the body shapes the we think“ argumentieren, eine Intelligenz bräuchte immer Zugang zur realen Welt. Fehlt dieser Zugang, handelt es sich also in irgendeiner Form um eine Simulation oder sonst wie von Dritten (Menschen) aufbereiteten „Realität“, fehlen auch Informationen. Im fundamentalsten Fall analog versus digital. Bei evolutionären Verfahren vervielfacht sich dieses Problem. Präsentiert man nur eine Simulation, handelt es sich bei allen realistischen Fällen immer um eine spezifisch menschlich abstrahierte(!) Weltsicht. Und das wiederum ist zum Nachteil der evolvierenden Intelligenz. Selbst wenn Menschen sich noch so viel Mühe mit einer Simulation geben sollten – sie wird nie der Umwelt entsprechen, in der die menschliche Intelligenz selbst entstanden ist.

    Zur Evolution von Roboterkörpern. Ich denke, es gibt keine Alternative. Menschliche Designs, das zeigt die Erfahrung, sind problematisch. Die Erfahrung zeigt, dass evolutionäre Verfahren häufig überlegen sind gegenüber menschlichen Entwürfen. Im Buch werden Beispiele genannt. Was ich sagen will: Langfristig führt wohl kein Weg an der Evolution vorbei. Die Frage, die sich stellt, ist, wieso wir biologisch und nicht maschinell sind. Und einer der vielen Gründe dürfte die bessere Evolutionsfähigkeit sein. Das ist eine Richtung, in die Maschinen, die intelligent werden wollen, ebenso gehen müssen. Die Science-Fiction gibt die Richtung bereits mit intelligenten Maschinen, die aus Nanopartikeln bestehen, die sich zusammenschließen können, bereits vor.

    Und der Bogen zum Anfang: Die Auswirkung von jedem Unterschied in der Umwelt wird durch evolutionäre Verfahren noch verstärkt.

    Kommentar von Stefan — 4. September 2009 @ 10:03

    • „Ich sage dabei nicht, dass Maschinen kein Bewusstsein haben könnten. Ich sage nur, dass, wenn sie eines entwicklen, es sich von dem menschlichen unterscheiden würde.“

      …nicht zwangsläufig und nicht prinzipiell, aber ich würde zustimmen, dass das mit großer Wahrscheinlichkeit so sein würde. Vor allem glaube ich (Glaube, weil ich nicht hellsehen kann), dass Maschinen ein Bewusstsein entwickeln könnten, das über das des Menschen hinausgeht und das trifft wahrscheinlich auch auf alle anderen Fähigkeiten des Menschen zu.

      „…aufbereiteten „Realität“, fehlen auch Informationen. Im fundamentalsten Fall analog versus digital.“

      Alle unsere Sinnesorgane sind letztlich physikalische Messvorrichtungen mit begrenzter Auflösung. Insofern sehe ich da keinen prinzipiellen Unterschied zwischen analoger und digitaler Datenverarbeitung, da alle analogen Größen bis zur erforderlichen Genauigkeit mit endlich vielen Digits digitalisiert werden können.

      „Die Frage, die sich stellt, ist, wieso wir biologisch und nicht maschinell sind.“

      Die Frage ist so zu beantworten, dass die speziellen Materialen für Computerchips (z.B. hochreines, monokristallines Si) mit der erforderlichen Reinheit in der Natur nicht vorkommen. Oder anders ausgedrückt, die Wahrscheinlichkeit, dass sich logische Schaltungen auf dieser Basis über die natürliche Evolution entwicklen könnten, liegt nahe bei Null.

      Kommentar von Bruno — 5. September 2009 @ 12:30

  7. Zu Punkt drei:

    „3.) Intelligente Maschinen (Computer) können an Problemen hängen bleiben und sich damit selbst blockieren, Menschen nicht.

    Der Unterschied liegt darin, dass unsere heutigen Computer Aufgaben überwiegend seriell bearbeiten, während das Gehirn als neuronales Netz in hohem Maße parallel arbeitet. Die Entwicklung geht aber bei den Computern in Richtung auf parallele Informationsverarbeitung, so dass das Problem immer geringer wird.“

    Durch parallele Informationsverarbeitung bei Computern wird das Problem sogar größer. Ein einfacher, serieller Algorithmus ist gut beherrsch- und überprüfbar. Ein paralleles Verfahren dagegen ist ungeheuer komplex und schwer vorhersehbar. Programmteile, die unabhängig voneinander arbeiten, aber doch Berührungspunkte haben, können sich auf verschiedenste Weise in die Quere kommen und Deadlocks entstehen. Das System verkeilt sich – und ist blockiert. Das ist der Grund, warum Parallelität, obwohl heute bereits hardwareseitig besser unterstützt, von der Softwareseite nur sehr zögerlich angenommen wird. Denn die Fehleranfälligkeit schnellt nach oben. Man weiß nie, welcher Teil wann wo mit welchem anderen interagiert. Die heutige Reduzierung dieses Problems sieht so aus, dass in kritischen Bereichen strikt Seriellität erzwungen wird. Nicht, weil die Hardware nicht mehr könnte (mehrere Cores, die parallel arbeiten können, sind schon seit einiger Zeit Standard), sondern weil die Software einem sonst um die Ohren fliegen würde.

    Massive Parallelität, wie im Gehirn, benötigt daher entweder dieselbe neuronale-biologische „Hardware“ oder eine Software, die untereinander praktisch keine Berühungspunkte hat. Doch mit Letzterem wird man kaum ein Gehirn simulieren können.

    „Unsere bekannten Naturgesetze sind als Algorithmen (mathematische Formeln) darstellbar. Das trifft auch auf die Quantenmechanik zu. Ob der Zufall hierbei von grundlegender Natur ist, ist eine Frage der Interpretation der Quantenmechanik.“

    Ein Algorithmus ist dem üblichen Verständnis nach stets deterministisch. Dies trifft auf die Quantenmechanik in den beiden großen Interpretationen nicht zu – insbesondere nicht in der Kopenhagener Interpretation. Dass die Standard-Interpretation und damit die überwältigende Mehrheit der Physiker die Quantenmechanik für nicht deterministisch hält, ist keine Kleinigkeit.

    „Dazu müsste man in einer virtuellen Welt eine Reihe von virtuellen Wesen mit jeweils einem umfangreichen, leistungsfähigen neuronalen Netz programmieren, die über eigene „Sinnesorgane“ verfügen und die Möglichkeit besitzen, aktiv ihre Umwelt zu erkunden und Erfahrungen zu sammeln.“

    Das Problem, das mir hier auffällt, ist, dass die Evolution stets auf die aktuelle Umwelt optimiert. Ein Wesen, das evolutionär im Rechner entsteht und auf eine dortige Umwelt optimal angepasst ist, ist keinesfalls auf die reale Welt optimiert. Das heißt, ein Roboter muss auch evolutionär großgezogen werden. Das ist nicht unmöglich und wird in dem Buch „How the body shapes the way we think“ von Pfeifer und Bongard auch erwähnt. Möglich ist es – wenn auch schlecht erforscht bisher. Die Evolution ist ein ungeheuer mächtiger und leistungsfähiger Mechanismus. In diesem Fall aber zum Nachteil von einfachen Realisierungen. Je komplexer der Roboter, desto problematischer eine getrennte Evolvierung von Steuerprogramm und Körper.

    Kommentar von Stefan — 2. September 2009 @ 21:37

    • zu Punkt 3:

      Hier geht es ja darum, ob man aus dem festgestellten Mangel unserer Computer bzw. ihrer Software einen prinzipiellen Unterschied ableiten kann, der für alle Zeiten Gültigkeit besitzt.

      Was auf jeden Fall bleibt, ist die Möglichkeit künstliche neuronale Netze in Form von Hardware aufzubauen. Es gibt dazu Ansätze. Das Problem ist aber im Moment, dass es dafür keinen großen Markt gibt und daher in die Entwicklung solcher Computerchips keine vergleichbaren Summen gesteckt werden. Die Ansätze zeigen zumindest, dass solche Netze vergleichbaren biologischen Netzen eher überlegen als unterlegen sind.

      In Biologischen Netzen gehen übrigens analoge Größen in die Datenverarbeitung ein wie z.B. der Zeitabstand zwischen den Spikes einer feuernden Neurone. Aber auch das kann man hardwaremäßig nachbauen.

      Die hohe Zuverlässigkeit dieser Hardware-Netze bzw. der biologischen Netze liegt sicher zum Teil auch daran, dass hier das Betriebssystem weitgehend fest verdrahtet ist.

      zur Quantenmechanik:
      Der Formalismus der Quantenmechanik ist deterministisch. Die Frage, inwieweit der Zufall ein Grundprinzip der Natur ist, kann im Moment keiner endgültig beantworten. Eine demokratische Abstimmung unter Physikern bringt uns da auch nicht wirklich weiter. Aber das spielt ja hier auch keine entscheidende Rolle. Wichtig ist nur, dass wir unsere Computer mit zusätzlicher Hardware ausstatten können, die uns den Zugang zu diesen Vorgängen verschafft.

      Viel tiefgreifender sind da übrigens die Einwürfe von Roger Penrose (Punkt 4). Er glaubt an eine nichtalgorithmische Physik jenseits von Determinismus und reinem Zufall. Er steht mit seiner Meinung aber ziemlich alleine da und hat inzwischen eingeräumt, dass auch das kein wirklicher Hinderungsgrund für die künstliche Intelligenz wäre.

      zur Evolution von künstlichem Bewusstsein:

      …dem stimme ich weitgehend zu. Eine Evolution von Robotern in der realen Welt würde wahrscheinlich zu einer ziemlichen Materialschlacht ausarten. Auf der anderen Seite gibt es ja virtuelle Welten wie z.B. in „second life“ die der Realität gut angepasst sind. Hier fehlt es natürlich noch an Qualität, aber das ist nur eine Frage der Zeit.

      Zu der Frage, inwieweit man ein Gehirn im Computer simulieren kann, sei noch auf diesen Artikel hingewiesen:
      https://transhumanismus.wordpress.com/2009/07/08/der-geist-in-der-maschine/

      wer viel Zeit hat, kann sich ja mal den Tagungsbericht durchlesen:
      http://www.philosophy.ox.ac.uk/__data/assets/pdf_file/0019/3853/brain-emulation-roadmap-report.pdf

      …ich fand den ganz interessant.

      Kommentar von berndvo — 3. September 2009 @ 09:02


RSS feed for comments on this post. TrackBack URI

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

Erstelle eine kostenlose Website oder Blog – auf WordPress.com.

%d Bloggern gefällt das: