Transhumanismus/Posthumanismus

27. Juni 2013

Das Geheimnis menschlichen Denkens ist enthüllt

Filed under: eigene Artikel, Rezension — Schlagwörter: , — berndvo @ 20:54

In seinem Buch „How to Create a Mind“ zeigt der bekannte amerikanische Futurist und Pionier der künstlichen Intelligenz Ray Kurzweil, dass mittlerweile die Art und Weise, wie menschliches Denken funktioniert, weitgehend entschlüsselt ist. Nach seiner Meinung werden wir mit dieser Erkenntnis innerhalb der nächsten zwei Jahrzehnte in der Lage sein, Computer mit allen geistigen Fähigkeiten des Menschen auszustatten. Der Schritt, über diese Fähigkeiten hinauszugehen, ist dann nur noch ein eher kleiner.

 

Ray Kurzweil genießt im englischsprachigen Raum hohes Ansehen. So erhielt er 19 Ehrendoktortitel und eine ganze Reihe von Auszeichnungen, darunter die „National Medal of Technology“. Er gilt als eine der Leitfiguren des Trans- und des Posthumanismus. Er ist Pionier der optischen Texterkennung, der Sprachsynthese, der Spracherkennung, der Flachbettscannertechnologie und der elektronischen Musikinstrumente (insbesondere Keyboards) und hat in diesen Bereichen eine Reihe von Firmen gegründet. Seit 2012 arbeitet er als leitender Ingenieur bei Google. Sein 2005 veröffentlichtes Buch „The Singularity Is Near“ war ein Bestseller. Im Verlag lolabooks ist gerade eine deutsche Übersetzung unter dem Titel „Menschheit 2.0, die Singularität naht“ erschienen. Der Verlag plant, auch das hier besprochene Buch demnächst in deutscher Sprache herauszugeben.

Der Algorithmus des Denkens

In der ersten Hälfte des Buches gibt Kurzweil einen zusammenfassenden Überblick über den gegenwärtigen Stand der Hirnforschung. Die grundlegenden Funktionseinheiten des Gehirns sind die Nervenzellen (Neuronen). Sowohl ihre biochemische Funktion als auch die daraus resultierende Funktion der Informationsverarbeitung sind weitestgehend erforscht und es gibt gute Simulationsmodelle dafür. Da als Grundlage dieser Modelle die klassische Physik und die sich daraus ableitende Biochemie ausreichend ist und sich diese Teile der Naturwissenschaften vollständig algorithmisch beschreiben lassen, ist damit zwangsläufig auch die Funktion der Neuronen vollständig algorithmisch beschreibbar. Das häufig vorgebrachte Gegenargument, dass die Neuronen teilweise analog arbeiten und somit mit einem Digitalcomputer nicht ausreichend simuliert werden können, begegnet Kurzweil mit dem Hinweis dass z.B. die analoge Größe der Leitfähigkeit in den Synapsen der Neuronen völlig ausreichend mit 8 Bit verschlüsselt werden kann. Analoge Vorgänge können grundsätzlich mit jeder gewünschten Präzision in Digitalcomputern simuliert werden.

Der Teil des Gehirns, in dem bewusstes Denken stattfindet, ist der Neocortex. Es ist die äußere Schicht des Großhirns mit einer Stärke von 2 bis 5mm, die selbst wieder aus sechs einzelnen Schichten besteht. Durch die Faltung des Gehirns ist die Gesamtfläche vergleichsweise groß (1800 qcm). Man kann hier Einheiten, so genannte cortikale Säulen, identifizieren, die jeweils aus etwa 10 000 Neuronen bestehen. Der Teil des genetischen Codes, in dem der Bauplan des menschlichen Gehirns steckt, hat einen Umfang von ca. 25MB. Das ist eine erstaunlich geringe Datenmenge. Der Bauplan eines heutigen Verkehrsflugzeugs benötigt eine hundert bis tausendmal größere Datenmenge. Es ist nach Kurzweil wohl so, dass im genetischen Code im Wesentlichen die Baupläne für die Grundbausteine (Neuronen und z.B. ihre Organisation zu cortikalen Säulen) des Gehirns verschlüsselt sind und die Anweisung, wie oft diese zu vervielfältigen sind. Bei einem Embryo mit voll entwickeltem Gehirn sind sozusagen nur die Hardware und ein einfaches Betriebssystem vorhanden. Alles andere muss erlernt werden. Dieser Prozess beginnt in begrenztem Umfang durchaus schon vor der Geburt.

Unser Denken besteht im Wesentlichen aus der Erkennung und der Manipulation von Mustern. Insgesamt können wir bis zu 300 Millionen verschiedene Muster unterscheiden. Zur Speicherung und Verarbeitung werden jeweils um die 100 Neuronen verwendet. Obwohl die Verarbeitungsfrequenz in unserem Gehirn nur zwischen 100 und 1000Hz liegt und damit mehr als eine Million mal kleiner als in unseren Computern ist, schafft unser Gehirn eine Mustererkennung innerhalb von Sekundenbruchteilen. Der Grund dafür ist, dass hier die Datenverarbeitung extrem parallel erfolgt. Nach Kurzweil ist der Algorithmus nach dem dies geschieht, mathematisch am bestem mit dem so genannten Hierarchical hidden Markov model (HHMM) zu beschreiben. Es handelt sich dabei um ein künstliches neuronales Netz, das mit zum Teil statistischen Methoden aus einer Datenmenge bestimmte Muster erkennen kann.

Beim Lesen von Text muss man sich das z.B. so vorstellen, dass in der untersten Hierarchieebene zunächst einfache geometrische Muster aus den vom Sehnerv kommenden Signalen erkannt werden wie z.B: Linien, Bögen und Kreise, wobei bereits in der Netzhaut des Auges eine Datenkompression erfolgt. In der nächsten höheren Ebene werden daraus Buchstaben erkannt. Danach erfolgt die Erkennung von Wörtern, dann folgen Sätze. In der höchsten Stufe werden wir uns des Inhalts eines Satzes bewusst. Alle diese Denkprozesse laufen ausschließlich algorithmisch ab und obwohl sie damit deterministisch sind, können trotzdem Zufälle im Rahmen des so genannten deterministischen Chaos eine Rolle spielen. Das Denken des menschlichen Gehirns und die Abläufe in ähnlich aufgebauten künstlichen neuronalen Netzen lassen sich daher nicht vollständig vorhersagen.

Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten der Informationsverarbeitung der Zelle. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet und sie ist unabhängig von einer bestimmten Materie. Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig von dem konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass die Abläufe innerhalb der Neuronen algorithmisch ablaufen, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine und dieses wiederum heißt im Umkehrschluss, dass es prinzipiell möglich sein muss, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, die der Mensch hat, einschließlich des Bewusstseins.

Maschinen lernen denken

Im zweiten Teil des Buches zeigt der Autor, wie nun die Erkenntnisse der Hirnforschung dazu genutzt werden können, Computerprogramme zu erstellen, die wie das menschliche Denken funktionieren. Die Hauptanwendungsgebiete liegen derzeit in der Mustererkennung. So basiert das Spracherkennungsprogramm Siri, das auf dem iPhone 4S und dem iPhone 5 installiert ist, auf einem künstlichen neuronalen Netz, das lernfähig ist und sich mit der Zeit auf seinen Nutzer einstellt. Microsoft stattet jetzt seine neuen Smartphones mit einem verbesserten Spracherkennungsprogramm aus, das doppelt so schnell arbeitet wie Siri und um 15% zuverlässiger sein soll. Eines der derzeit am weitesten fortgeschrittenen Programme in Bezug auf die Simulation menschlichen Denkens ist „Watson“ von der Firma IBM. Es ist in der Lage, ganze Sätze zu verstehen und darauf sinnvolle Antworten zu geben. Bei dem im amerikanischen Fernsehen beliebten Spiel „Jeopardie“ hat es im Jahr 2011 besser abgeschnitten als die besten menschlichen Kandidaten. Bei diesem Spiel muss auf einen Satz, der eine Antwort darstellt, die zugehörige richtige Frage gefunden werden. Das Programm kann durch einen Lernprozess für verschiedenste Fähigkeiten optimiert werden. Eine kleine Gruppe bei IBM hat dem Programm inzwischen beigebracht, neue Kochrezepte zu erstellen. Die menschlichen Geschmackseindrücke wurden dabei vorher einprogrammiert.

Ray Kurzweil selbst hat jahrzehntelange Erfahrung im Programmieren von lernfähigen Mustererkennungsprogrammen. Nach seiner Erfahrung arbeiten diese Programme dann am besten, wenn man sie in ihrem Aufbau als neuronalem Netz dem menschlichen Gehirn nachempfindet. Für die jeweilige Aufgabe kann man gewisse Grundregeln einprogrammieren. Die Feinheiten erlernt das Programm dann selbstständig durch seinen praktischen Gebrauch. Zusätzlich kann man noch einen evolutionären Optimierungsvorgang einbauen, der die Verschaltung des Netzes für die jeweilige Aufgabe optimiert, so wie das auch im menschlichen Gehirn geschieht. Auf die Frage, wann es gelingt, Computer mit allen menschlichen geistigen Fähigkeiten einschließlich des Ich-Bewusstseins auszustatten, gibt Kurzweil das Jahr 2029 an. Zu diesem Zeitpunkt wird nach seiner Meinung das erste Computerprogramm den so genannten Turing-Test bestehen. Was danach geschieht, hat er ausführlich in seinem Buch „The Singularity is Near“ beschrieben. Es wird nach seiner Meinung eine rasante Vervielfachung der Rechenleistung und der Fähigkeiten der künstlichen Intelligenz geben, die gewaltige Auswirkungen auf unsere Gesellschaft haben werden.

Die Kritiker

Wie nicht anders zu erwarten, gibt es auch heftige Kritik an den Positionen von Kurzweil, zumal für viele die mögliche Machbarkeit von künstlichem Bewusstsein eine Kränkung ihres Menschenbildes darstellt. Insbesondere im deutschsprachigen Raum gibt es eine tief greifende Aversion gegen die Ideen von Ray Kurzweil und generell gegen den Transhumanismus und den Posthumanismus. Wahrscheinlich ist einer der Gründe, dass die meisten immer noch einer christlichen Ethik und einem Menschenbild verbunden sind, die ihre Ursprünge in der Bronzezeit haben. Daneben gibt es ein tiefes und zum Teil irrationales Misstrauen gegenüber neuen Technologien. So glauben religiös oder metaphysisch inspirierte Intellektuelle nach wie vor an den Dualismus von Leib und Seele bzw. Geist und Körper. Sie können aber keine wirklich nachvollziehbaren rationalen Argumente für ihre Position anführen. Insofern ist das eine reine Glaubensfrage. Den Naturwissenschaften etwas mehr zugeneigte Geisteswissenschaftler vertreten häufig die Position, dass man zwar womöglich alle geistigen Fähigkeiten des Menschen mit einem Computer simulieren kann, aber die Simulation immer noch etwas anderes ist als die Wirklichkeit, ähnlich wie die Simulation des Wetters etwas anderes ist als das Wetter selbst. Prominenter Vertreter dieser Position ist der amerikanische Philosoph John Searle. In  seinem Buch „Die Wiederentdeckung des Geistes“ geht er zwar davon aus, dass das menschliche Gehirn im Rahmen des Naturalismus vollständig beschrieben werden kann als eine Art Bio-Computer, dass aber seine Fähigkeiten nicht mit der künstlichen Intelligenz gleichrangig nachvollzogen werden können. Der Denkfehler der dieser Position zugrunde liegt, ist die Ansicht, dass unsere geistigen Fähigkeiten an eine bestimmte Materie gebunden sind. Im Kern ist aber Denken nichts anderes als Informationsverarbeitung und dies geschieht auf der untersten Ebene als reine Symbolverarbeitung und dies ist bereits ein abstrakter Vorgang. Ray Kurzweil schreibt dazu: „Wenn das Verstehen von Sprache und anderer Phänomene über statistische Analysen (wie z.B. bei moderner Spracherkennungssoftware) nicht als wahres Verstehen zählt, dann haben Menschen auch kein wahres Verstehen.“

Fachleute der künstlichen Intelligenz an deutschen Hochschulen und Universitäten bezeichnen die Ansichten von Kurzweil häufig als überzogen optimistisch in Bezug auf die Machbarkeit der künstlichen Intelligenz und ihrer Auswirkungen auf die Menschheit. Allerdings geht Kurzweil bereits in seinem Buch „The Singularity is Near“ neben den großen Chancen auch auf die Gefahren der neuen Technologien ein. Insofern ist der Vorwurf nicht ganz zutreffend. Für seine Kritiker hat er eine Analyse seiner eigenen Vorhersagen aus seinem Buch „The Age of Spiritual Maschines“ gemacht. Das Buch erschien 1999. Von seinen 147 einzelnen dort gemachten Vorhersagen für das Jahr 2009 waren 78% voll zutreffend. Weitere 8% waren im Prinzip richtig, traten aber bis zu 2 Jahre später ein als vorhergesagt. 12% waren nur teilweise korrekt und 2% waren falsch. Zu den falschen Vorhersagen gehört, dass es bis 2009 Autos gibt, die ohne Fahrer betrieben werden können. Aber selbst in diesem Fall muss man zugestehen, dass das Problem technisch durchaus bereits gelöst ist. So hat Google im Oktober 2010 einen elektrisch angetriebenen Lieferwagen fahrerlos über 13000 km von Italien nach China fahren lassen. Im Moment liegt das Problem zur generellen Einführung dieser Technik eher bei den fehlenden gesetzlichen Regelungen. Man muss sich angesichts dieser Zahlen fragen, wer von den Kritikern eine bessere Statistik seiner eigenen Vorhersagen vorlegen kann. Bill Gates meint jedenfalls dazu: „Ray Kurzweil ist von denen Personen, die ich kenne, am besten geeignet die Zukunft der künstlichen Intelligenz vorauszusagen“.

Deutsche Bedenkenträger

Während Pioniere wie Ray Kurzweil den Weg in eine Zukunft weisen mit weniger Leid und mehr Lebensqualität, sehen selbsternannte Ethikexperten in unserem Land schon bei der PID die Menschenwürde in Gefahr. Einer der prominenten deutschen Vertreter der Bedenkenträger gegenüber neuen Technologien ist der Philosoph Jürgen Habermas. In seinem Buch „Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?“ bezeichnet die Anhänger des Trans- und des Posthumanismus als „ausgeflippte Intellektuelle“. Ihm selbst muss man allerdings bescheinigen, dass er hier über Dinge schreibt, von denen er nicht die geringste Ahnung hat.

Bei der Diskussion der ethischen Grundlagen neuer Technologien und ihrer gesetzlichen Regelung hat der Deutsche Ethikrat einen großen Einfluss. Er hat sich im letzten Jahr einen Namen gemacht mit der Empfehlung an den Bundestag, einem Gesetz zur Regelung der Genitalverstümmelung von Jungen zuzustimmen. Mit solchen Leuten, bei denen nicht die Verminderung sondern die Verherrlichung des Leids im Vordergrund steht und die einen Weg zurück ins Mittelalter beschreiten, werden wir die Zukunft nicht meistern können. Dennoch werden auch sie die Entwicklung nicht wirklich aufhalten können. Ray Kurzweil meint dazu, dass sich die neuen Technologien, wenn überhaupt, dann nur in totalitären Staaten aufhalten werden lassen. Wir werden diese zukünftigen Herausforderungen nur meistern, wenn wir ein wissenschaftsfundiertes Weltbild anerkennen und uns von einem metaphysischen bzw. religiösen Menschenbild endlich befreien.

Bernd Vowinkel

Werbeanzeigen

26. September 2010

Rezension: Posthumanismus, eine kritische Einführung von Stefan Herbrechter

Filed under: Rezension — Schlagwörter: — berndvo @ 07:16

In aller Regel hinken die Diskurse der Geisteswissenschaftler den technologischen Entwicklungen zeitlich weit hinterher. Insofern ist es grundsätzlich als ausgesprochen positiv zu bewerten, dass sich hier ein Geisteswissenschaftler mit einem Gebiet befasst, das ansonsten fast ausschließlich von Technologen und Naturwissenschaftlern kultiviert wird.  Bezüglich des Trans- und des Posthumanismus nehmen Geisteswissenschaftler meistens eine sehr kritische bis völlig ablehnende Position ein. Der Standpunkt des Autors liegt dagegen wohltuend zwischen den extremen Positionen der Euphoriker wie z.B. Ray Kurzweil und Hans Moravec auf der einen und Bedenkenträgern wie Jürgen Habermas auf der anderen Seite. Er bezeichnet das als „kritischen Posthumanismus“. So beschreibt er sowohl die Gefahren und Herausforderungen  der technologischen Entwicklung als auch die Chancen für unsere Gesellschaft. Weiterhin muss nach Ansicht des Autors die Auseinandersetzung mit dem Posthumanismus zu einem Überdenken des althergebrachten Humanismusbegriffs führen. Er zeigt, dass es sich bei der „menschlichen Natur“ letztlich um einen mystischen Begriff handelt. Die Problematisierung des Humanismus soll dabei nicht zu einer Dehumanisierung und zum Nihilismus führen, sondern eher zu einer Reinigung, indem man sich von Mystik und inhaltsleeren Begriffen verabschiedet, wie z.B. Seele, Menschenwürde und freier Wille. Als Konsequenz schreibt er: „Die Humanwissenschaften von morgen werden sich mit dem „Menschen Eigenen“ neu beschaffen müssen, wohlwissend dass keine der traditionellen Eigenheiten oder Abgrenzungen zwischen human und nichthuman vor der Wissenschaft oder der Dekonstruktion Bestand haben.“

Als eher kleinere Kritikpunkte sind anzuführen, dass keine klare Unterscheidung zwischen Transhumanismus und Posthumanismus getroffen wird. Allgemein gilt, dass posthumane Wesen solche sind, die keinen menschlichen Anteil mehr haben, also in der Regel Wesen auf der Basis reiner künstlicher Intelligenz. Genoptimierte oder mit technischen Mitteln „verbesserte“ Menschen gelten dagegen als transhuman.

Ein weiterer Kritikpunkt ist der, den man insbesondere als Naturwissenschaftler bei den meisten geisteswissenschaftlichen Abhandlungen findet. Bei einer Veröffentlichung, die einen größeren Leserkreis ansprechen soll, sollte man den Text nicht unnötig mit Fremdwörtern und Fachjargon überfrachten. Häufig dient das ohnehin nur dazu, trivialen Dingen einen wissenschaftlichen Anstrich zu verpassen. Weiterhin sollte man nicht ohne Not ständig andere Autoren zitieren. Letzteres führt dann meist zu dem Urteil, dass es sich bei dem vorliegenden Text um Tertiärliteratur handelt. Ziel eines solchen Buches sollte es nicht sein, den Leser von der sprachlichen Gewandtheit und Belesenheit des Autors zu überzeugen, sondern die eigenen Ideen des Autors verständlich zu machen.

Dennoch gibt das Buch einen sehr guten Überblick über die philosophische Problematik und die geisteswissenschaftliche Literatur zum Thema. Es ist zu hoffen, dass dieses Buch dazu beiträgt, die Diskussion über den Trans- und den Posthumanismus auch in geisteswissenschaftlichen Kreisen salonfähig zu machen und damit der weit verbreiteten Ansicht entgegengewirkt, dass es sich dabei doch nur um Science Fiction Träume von durchgeknallten Naturwissenschaftlern handelt.

Bernd Vowinkel

29. August 2009

Entmystifizierung des Geistes

Filed under: Rezension — Schlagwörter: , , — berndvo @ 21:16

HofstadterDer Kognitionswissenschaftler und Informatiker Douglas Hofstadter beschäftigt sich mit der Frage des menschlichen Ichs, des Bewusstseins und was eine Seele ist. Die Schwierigkeit des Themas liegt in der Natur der Sache. Es ist ein verständlich geschriebenes Buch, das für Viele zu einem besseren Verständnis des Bewusstseins führen wird und auch die Konsequenzen für unsere Ethik behandelt.

Douglas Hofstadter ist Professor für Kognitionswissenschaften und Informatik an der Indiana University in Bloomington und ist dort Leiter des „Center for Research on Concepts and Cognition“. Sein 1973 erschienenes Buch „Gödel, Escher, Bach“ ist ein Weltbestseller und wurde 1980 mit dem Pulitzer-Preis ausgezeichnet. Sein neues Buch mit dem Titel „Ich bin eine seltsame Schleife“ hat im Prinzip die gleiche alte philosophische Frage zum Thema: „Was ist der Mensch?“ oder etwas genauer, was ist ein Ich, was ist Bewusstsein oder was ist eine Seele? In seinem neuen Buch versucht er die Dinge noch allgemeinverständlicher darzustellen. Er vermeidet daher auch mathematische Formeln und verzichtet weitgehend auf Fachausdrücke. Dennoch dürfte die Verbindung zwischen Gödels Unvollständigkeitssatz der Mathematik und dem Selbstbewusstsein für die meisten Leser nur schwer nachvollziehbar sein. Dies liegt aber weniger an Hofstadters Darstellung, sondern mehr in der Natur der Sache.

(more…)

8. Juli 2009

Der Geist in der Maschine

Filed under: Rezension — Schlagwörter: , , — berndvo @ 10:26

von Bernd Vowinkel

 

Der frei über das Internet verfügbare Bericht „Whole Brain Emulation: A Roadmap“ ist eine Zusammenfassung der Vorträge und Diskussionen eines gleichnamigen Workshops, der im Mai 2007 im „Future of Humanity Institute“ an der Universität Oxford stattfand. Es handelt sich hierbei um einen naturwissenschaftlichen Beitrag über die potentielle zukünftige Möglichkeit der Kopie und Simulation eines menschlichen Gehirns in einem Computer. Der Bericht ist frei von ethischen und weltanschaulichen Bewertungen. Insofern kann ihm keine Ideologie unterstellt werden. Er passt zwar in das Weltbild des Transhumanismus, aber es wird dafür nicht explizit geworben. Naturgemäß sind Teile des Berichts spekulativ, da er sich mit der zukünftigen Weiterentwicklung der beteiligten Technologien befasst. Dennoch sind diese Spekulationen naturwissenschaftlich und technologisch gut fundiert, da sie keine völlig neuen Technologien oder naturwissenschaftlichen Erkenntnisse voraussetzen, sondern nur den derzeitigen Stand der Technik über ein paar Jahrzehnte hinweg extrapolieren. Es wird auch nicht behauptet, dass es prinzipiell möglich ist, ein komplettes Gehirn im Computer zu simulieren, sondern es wird nur diskutiert, welche Probleme dazu noch gelöst werden müssten. Es wird damit auch durchaus die Möglichkeit eingeräumt, dass es unüberwindliche Hindernisse geben könnte. Solche möglichen Hindernisse werden ebenfalls identifiziert und diskutiert.

Die Simulation des gesamten Gehirns eines individuellen Menschen in einer Maschine wird in der Science-fiction-Literatur häufig als „Upload“ bezeichnet. Die dahinter stehende Idee ist die, dass man mit einem „Scanner“ also einem Abtastgerät, den gesamten Aufbau eines menschlichen Gehirns registriert und mit dieser Information dann in einem Computer die Funktion des Gehirns mit allen individuellen Eigenschaften bis hin zum Ich der Person simuliert. Gelingt diese Simulation so perfekt, dass man keine wesentlichen Unterschiede mehr zur geistigen Funktion des ursprünglichen biologischen Hirns feststellen kann, so spricht man von einer Emulation. Diese Emulation würde dann über das gleiche Ich und über das gleiche Bewusstsein wie das des abgetasteten Gehirns bzw. der Person verfügen. Diese Idee erscheint den meisten Menschen als prinzipiell völlig undurchführbar und Wissenschaftler, die diese Idee ernsthaft vertreten, werden daher häufig als naive Spinner angesehen.

Zunächst ist diese Einstellung völlig verständlich, denn der Scanner müsste ja etwa 100 Milliarden Nervenzellen (Neuronen) abtasten von denen jede im Mittel ungefähr zehntausend  Verbindungen zu den anderen Nervenzellen hat. Bei diesen Verbindungen sind die so genannten Synapsen entscheidend für Informationsübertragung und Verarbeitung. Dabei spielen chemische Substanzen (Neurotransmitter) eine wichtige Rolle. Nach der Erfassung dieser riesigen Datenmenge müsste man dann daraus das gesamte neuronale Netz im Computer rekonstruieren und zum Funktionieren bringen. Diese Aufgabe ist insgesamt so gewaltig, dass sie alle bisherigen wissenschaftlichen Großprojekte in den Schatten stellt. Aus diesem Grund wird man das Problem nur schrittweise lösen können und an ersten Schritten wird bereits intensiv an vielen renommierten Forschungsinstituten gearbeitet. Bereits diese ersten Schritte zeigen, dass man eine erfolgreiche Realisierung des Projektes nicht mehr prinzipiell ausschließen kann. Insofern liegt im Moment die Naivität eher bei den Kritikern des Projektes.

Der Bericht zeigt, dass zur Beurteilung der Wahrscheinlichkeit einer erfolgreichen Realisierung des Projektes zunächst die Frage beantwortet werden muss, bis zu welchen Details man ein biologisches Gehirn abtasten muss, um seine Funktion hinterher ohne irgendwelche Einbußen rekonstruieren zu können. Die Mindestanforderung ist sicherlich ein räumliches Auflösungsvermögen, das in der Lage ist, einzelne Neuronen mit all ihren Verbindungen bzw. Synapsen aufzulösen, d.h. Bruchteile eines Tausendstels eines Millimeters. Womöglich kann schon aus der räumlichen Form der Neuronen und ihrer Synapsen auf ihre Signalverarbeitungseigenschaften geschlossen werden. Nichtinvasive Techniken sind dazu auf absehbarer Zeit nicht in der Lage. Um die besagte Auflösung mit Hilfe elektromagnetischer Strahlung zu erreichen, müsste man energiereiche Röntgenstrahlung verwenden, die aber das Hirngewebe schädigen würde. Die Kernspintomographie erreicht auf der anderen Seite bei weitem nicht die nötige räumliche Auflösung. Erheblich bessere Chancen bieten invasive Techniken. Ein Beispiel dazu sind die Arbeiten, die derzeit am Max-Planck-Institut für Neurobiologie in Martinsried und in amerikanischen Forschungslabors gemacht werden. In diesen Instituten versucht man, ein Fliegenhirn im Computer zu rekonstruieren, indem man es tief gefroren mit einem so genannten Mikrotom (Mikrohobelmaschine) in dünne Scheiben von 30 Nanometer Dicke zerlegt und diese Scheiben dann mit einem Rasterelektronenmikroskop automatisch abtastet. Im Computer wird aus diesen Daten dann das neuronale Netz des Gehirns rekonstruiert. Inwieweit dieses Verfahren in der Lage ist, die Funktion des Gehirns fehlerfrei zu rekonstruieren, wird sich vermutlich innerhalb der nächsten Jahre herausstellen. Unser Gehirn ist zwar mehr als hunderttausend Mal größer, aber wenn die Rekonstruktion beim Fliegenhirn funktioniert, so sollte sie auch beim Menschen möglich sein. Es wäre dann lediglich eine Frage des Aufwandes.

Gelingt die Erfassung sämtlicher relevanter Daten eines Gehirns, so ist die nächste Frage, welche Rechenleistung ein Computer haben muss, um mit diesen Daten sämtliche Hirnfunktionen nachzuvollziehen. Eine grobe Abschätzung der Rechenleistung unseres Gehirns kann man dadurch erreichen, dass man die Rechenleistung der Netzhaut, die einigermaßen genau abgeschätzt werden kann, auf die gesamte Hirnmasse hochrechnet. Das Ergebnis liegt dann in der Größenordnung von 10 Millionen MIPS (Mega Instructions per Second), mit einer Genauigkeit von etwa ein bis zwei Größenordnungen. Diese Leistung wird schon jetzt von Großrechenanlagen weit übertroffen und unsere Personal Computer werden diesen Wert in wenigen Jahren erreicht haben. Allerdings ist die erforderliche Rechenleistung für die Emulation eines individuellen menschlichen Gehirns vermutlich um mehrere Größenordnungen höher. Dennoch wird auch diese Rechenleistung in spätestens in ein bis zwei Jahrzehnten zur Verfügung stehen.

Im Bericht werden eine ganze Reihe von Projekten aufgeführt, bei denen biologische neuronale Netze simuliert werden. Die umfangreichsten erreichen bereits die Größe des menschlichen Hirns, enthalten aber Vereinfachungen und arbeiten noch erheblich langsamer. Ein Beispiel sind die Arbeiten von Izhikevich:

 (http://vesicle.nsi.edu/users/izhikevich/human_brain_simulation/Blue_Brain.htm)

Diese Simulationen sind allerdings keine von einem biologischen Original kopierten neuronalen Netze, sondern sie sind nur nachempfunden. Eine Abschätzung, wann die erste erfolgreiche Emulation eines menschlichen Gehirns gelingen könnte, hängt sehr stark davon ab, bis zu welchen Details im Aufbau der Neuronen man gehen muss. Nach dem derzeitigen Stand der Technik und der Kenntnis der Abläufe in den Neuronen würde man dem Bericht zufolge etwa drei bis fünf Jahrzehnte schätzen.

Falls eine Emulation eines menschlichen Gehirns gelingen sollte, so würde sich die Frage stellen, ob diese Emulation auch ein eigenes Bewusstsein entwickelt. Zunächst einmal müsste man diesen „Geist“ auch mit einem Körper mit Sinnesorganen und einem Bewegungsapparat versehen. Dies könnte entweder virtuell, d.h. in Form zusätzlicher Software oder reell durch die Verbindung zu einem künstlichen Körper, d.h. einem Roboter geschehen. Weiterhin müsste sich dieser Körper in einer entsprechenden „Welt“ bewegen können. Auch dies könnte in virtueller Form angelegt werden. Diese Zusätze verlangen nur eine vergleichsweise geringe Rechenkapazität und stellen kein ernsthaftes Problem dar. In Computerspielen und in virtuellen Welten (z.B. Second Life)  ist dies heute schon realisiert.

Unabhängig davon wie die Entwicklung weitergeht, sie ist es wert, durchgeführt zu werden, denn sie wird zu einer tieferen Einsicht in die Funktionsweise unseres Gehirns führen bis hin zu den Fragen nach Bewusstsein, Ich-Identität und Willensfreiheit. Insofern ist sie von größtem wissenschaftlichem Interesse. Die Erzeugung der besonderen Fähigkeiten unseres Gehirns ist neben dem Problem der Vereinheitlichung der vier Grundkräfte der Natur das letzte große Rätsel der Natur. Am Ende wird die endgültige und restlose Entmystifizierung des Geistes stehen und womöglich ein neues Zeitalter mit ungeahnten Möglichkeiten aber auch neuen Gefahren und Problemen.

Insgesamt gibt der Bericht einen sehr guten Überblick über den Stand der Technik der Rekonstruktion von biologischem Hirngewebe. Er zeigt, dass keine völlig neuen Technologien oder wissenschaftliche Erkenntnisse notwendig sind, sondern dass man nur eine Verbesserung der Effektivität der beteiligten Technologien und der Rechenleistung der Computer braucht. Um diese Dinge vorauszusehen braucht man kein Prophet zu sein und es handelt sich bei der Extrapolation auch keineswegs um reine Science Fiction.

 

Sandberg, A. & Bostrom, N. (2008): Whole Brain Emulation: A Roadmap, Technical Report # 2008-3, Future of Humanity Institute, Oxford University

http://www.fhi.ox.ac.uk/Reports/2008-3.pdf

Erstelle eine kostenlose Website oder Blog – auf WordPress.com.