Transhumanismus/Posthumanismus

14. Juni 2017

Ist der Mensch eine Maschine?

Filed under: eigene Artikel — Schlagwörter: — berndvo @ 11:14

von Bernd Vowinkel

 

überarbeitete Version meines Artikels von 2009: „Unterschied Mensch-Maschine, oder: was ist der Mensch?,

Link: https://transhumanismus.wordpress.com/2009/07/29/unterschied-mensch-maschine-oder-was-ist-der-mensch/

 

 

Ohne lange darüber nachzudenken, würden wohl die meisten die Frage, ob der Mensch eine Maschine ist, eindeutig mit Nein beantworten. Allerdings gehen noch immer viele Menschen einerseits von einem überholten Menschenbild und andererseits von einer falschen Vorstellung von Maschinen aus. Dennoch scheint die Frage, was eine Maschine von einem Menschen unterscheidet, trivial zu sein. Ein Mensch lebt, eine Maschine besteht aus toter Materie, ein Mensch besteht aus organischem Material, eine Maschine aus Plastik und Metall. Ein Mensch kann denken, hat Bewusstsein und hat Würde. Alles Dinge, die eine Maschine offensichtlich nicht hat. Alles das ist richtig – noch! Aber was ist, wenn unsere Computer und ihre Programme immer intelligenter werden, wenn sie womöglich Bewusstsein entwickeln? Können wir für immer ausschließen, dass Maschinen etwas völlig Anderes bleiben, als Menschen? Könnte es sogar sein, dass es in Zukunft Maschinen gibt, die den Menschen in allen seinen herausragenden Eigenschaften und Fähigkeiten bei weitem übertreffen? Man kann den vorhandenen oder nicht vorhandenen Unterschied zwischen Mensch und Maschine anhand der folgenden Thesen diskutieren:

 

  1. Menschen bestehen aus organischem Material und nur mit diesem Material kann Leben und Bewusstsein entstehen, Maschinen bestehen dagegen aus anorganischem Material.

Die zugrundeliegende Idee dieses Arguments ist der Vitalismus und der gilt seit Mitte des letzten Jahrhunderts als widerlegt. Daneben stellt sich die Frage, ob der Unterschied im Material überhaupt von Bedeutung ist. Immerhin können wir inzwischen Menschen mit künstlichen Gliedmaßen, künstlichen Organen und sogar künstlichen Sinnesorganen (z.B. Cochlear-Implantate) ausstatten. In der Zukunft ist es durchaus denkbar, dass Schlaganfallpatienten durch Neuroimplantate wieder ihre ursprünglichen Fähigkeiten zurückerlangen. Sind diese „reparierten“ Menschen noch Menschen? Ab welchem Anteil anorganischer Materie im Körper sollte das nicht mehr der Fall sein? Daneben finden auch umgekehrt durchaus organische Materialien Anwendung bei Maschinen und sogar bei Computern. So werden bereits digitale Signalprozessoren auf DNA-Basis diskutiert. Silizium ist als Basismaterial für Computerchips nicht für alle Zeiten festgelegt. Für die Zukunft werden durchaus auch andere Materialien diskutiert, wie z.B. Galliumarsenid (GaAs), Indium-Phosphit (InP), Nanoröhren aus reinem Kohlenstoff usw. Ein weiteres Argument ist, dass das Material, also die Atome und Moleküle, aus denen unser Körper besteht, im Lauf des Lebens fast vollständig, mehrfach ausgetauscht werden. Nicht also das Material selbst ist das, was uns als Menschen ausmacht, sondern die Informationen und die Fähigkeiten, die in unserem Gehirn gespeichert sind. Die Speicherung und die Verarbeitung von Information ist aber nicht auf irgendein bestimmtes Material für die Hardware festgelegt.

 

  1. Menschen können sich selbst reproduzieren, Maschinen können das nicht.

Immerhin werden bereits heute die meisten Maschinen selbst von Maschinen hergestellt und mit Hilfe von Computern konstruiert. Aber kann eine einzelne Maschine sich selbst reproduzieren? Der US-amerikanische Mathematiker John von Neumann (1903 – 1957) hat dies bereits im Jahr 1953 vorgeschlagen. Die nach Neumann benannte fiktive Maschine besteht aus einem Computer mit Speicher und einer universellen Mikrofabrikationsanlage (FAB). Diese Fabrikationsanlage kann im Schichtverfahren jedes beliebige Bauteil oder Gerät herstellen, einschließlich sich selbst. Das Schichtverfahren mit diesen so genannten 3D-Druckern funktioniert ähnlich wie bei einem Tintenstrahldrucker, nur, dass statt Tinte Kunststoffe, Metalle oder andere Materialien aufgesprüht und ausgehärtet werden. Zur Fabrikation einfacher Bauteile sind solche Geräte schon erhältlich, aber für Bauteile wie z.B. Computerchips fehlt es noch bei weitem an Auflösungsvermögen und geeigneten Verfahren. Generell kann man sagen, dass dieses Verfahren der Reproduktion nur in ganz speziellen Anwendungen, wie z.B. bei interstellaren Raumsonden (Von-Neumann-Sonden) wirklich sinnvoll ist, aber zumindest im Prinzip scheint diese Art der Selbstreproduktion möglich zu sein.

 

  1. Menschen haben Bewusstsein, Maschinen nicht.

Nach den Erkenntnissen der modernen Hirnforschung sind alle unsere geistigen Fähigkeiten auf die informationsverarbeitende Funktion der Nervenzellen (Neuronen) zurückzuführen. Ein Computer macht im Prinzip das Gleiche, nämlich Informationsverarbeitung. Als Computer bezeichnen wir üblicherweise eine universelle Rechenmaschine. Hierfür sind die Grundvoraussetzungen, dass die Maschine die logischen (booleschen) Grundfunktionen UND, ODER und NICHT (Inversion) ausführen kann, über einen genügend großen Speicher verfügt (rein theoretisch müsste der Speicher sogar unendlich groß sein) und frei programmierbar ist. Eine solche Maschine kann grundsätzlich alle algorithmischen Aufgaben lösen, die lösbar sind. Bei ihr spielt der konkrete Aufbau der Hardware nur eine Rolle in Bezug auf die Effizienz bzw. Geschwindigkeit, aber nicht auf die Lösbarkeit von Aufgaben. Die theoretische Grundlage für diese Aussage ist die Church-Turing-These: „Die Klasse der Turing-berechenbaren Funktionen stimmt mit der Klasse der intuitiv berechenbaren Funktionen überein“. Diese These ist zwar nicht beweisbar, aber sie wird in der Informatik üblicherweise als richtig angenommen. Gegenbeweise gibt es jedenfalls bisher nicht.

Die Konsequenz der Church-Turing-These ist, dass es nicht möglich ist, eine Rechenmaschine (Supercomputer) zu bauen, die mehr berechnen kann, als ein Computer bereits kann. Da viele Programmiersprachen ebenfalls turing-vollständig sind, kann man jeglichen Algorithmus mittels eines Quelltexts dieser Sprachen ausdrücken. Insbesondere können sich verschiedene Rechenmodelle gegenseitig simulieren. Auf den Menschen bezogen bedeutet dies: Wenn Denken auf den bekannten Naturgesetzen beruht und damit (abgesehen von Quanteneffekten) vollständig algorithmisch ist, dann kann eine Maschine im Prinzip alle Fähigkeiten des menschlichen Gehirns erwerben.

Damit ist aber zunächst nur gezeigt, dass es im Prinzip möglich ist, Maschinen mit Bewusstsein auszustatten. Ist es auch praktisch möglich? Es gibt viele, die bezweifeln, dass eine Maschine alle menschlichen Fähigkeiten des Gehirns erwerben kann. Das Hauptargument ist, dass die Simulation des Bewusstseins etwas Anderes ist, als das Bewusstsein selbst. Vertreten wird diese Haltung vor allem von dem bekannten amerikanischen Philosophen John Searle. In seinem Buch „Die Wiederentdeckung des Geistes“1 argumentiert er, dass z.B. die Simulation des Wetters etwas Anderes ist, als das Wetter selbst, denn im Computer regnet es z.B. ja nicht wirklich. Was im Computer abläuft, ist eine Abstraktion der physischen Vorgänge des Wetters. Daraus schließt er messerscharf, dass eben dies beim Bewusstsein genauso ist. Das ist jedoch ein Fehlschluss, denn wenn es sich beim Bewusstsein um hochkomplexe Informationsverarbeitung handelt, so ist bereits das natürliche Bewusstsein ein abstrakter Vorgang, der nicht an eine bestimmte Materie gebunden ist. Bei der Übertragung auf den Computer ändert sich nur die ausführende Hardware, während der Vorgang selbst nicht weiter abstrahiert werden muss.

Viele Hirnforscher würden dem zwar zustimmen, aber angesichts der Komplexität des Gehirns die praktische Realisierung kaum für möglich halten. Es ist sicher richtig, dass man im Moment noch weit davon entfernt ist, Bewusstsein direkt programmieren zu können, aber immerhin hat Dietrich Dörner in seinem Buch2 „Bauplan für eine Seele“ gezeigt, dass es zumindest im Prinzip möglich sein sollte. Es gibt aber noch die andere Möglichkeit, dass man die Evolution des Bewusstseins in einem Großrechner im Schnellverfahren nachvollzieht. Dazu müsste man in einer virtuellen Welt eine Reihe von virtuellen Wesen mit jeweils einem umfangreichen, leistungsfähigen neuronalen Netz programmieren, die über eigene „Sinnesorgane“ verfügen und die Möglichkeit besitzen, aktiv ihre Umwelt zu erkunden und Erfahrungen zu sammeln. Es reicht dabei eine Grundprogrammierung aus, die die Maschinen von Anfang an in die Lage versetzt, Erfahrungen zu sammeln. Weiterhin muss es Grundoptimierungsziele geben, die eine Bewertung der Erfahrungen ermöglichen. Ohne solche Ziele sind die Maschinen nicht in der Lage, zu lernen. Ähnlich wie bei den Menschen müssen diese Ziele einen gewissen Selbsterhaltungstrieb und so etwas wie Neugier enthalten. Eine auf diese Weise optimierte Maschine kann dann schließlich als Hardware aufgebaut werden und in die reale Welt entlassen werden. Die für die Optimierung erforderliche, extreme Rechenleistung wird in wenigen Jahren zur Verfügung stehen. Die Argumente für und gegen die Behauptung, dass künstliches Bewusstsein möglich ist, sind in dem Buch „Maschinen mit Bewusstsein“3 von Bernd Vowinkel ausführlicher diskutiert.

 

  1. Menschen haben Würde und Moral, Maschinen nicht

Grundlagen für Würde und Moral sind Bewusstsein, Urteilskraft und Vernunft. Wenn alle diese Dinge im menschlichen Gehirn auf der Basis der bekannten Naturgesetze erzeugt werden, gibt es keinen Grund, warum diese Dinge nicht auch mit Maschinen erzeugt werden können.

 

  1. Menschen haben Gefühle, Maschinen nicht

In dem Spielfilm „Transcendence“ aus dem Jahr 2014 gibt es eine Szene in der die künstliche Intelligenz gefragt wird, ob sie beweisen kann, dass sie empfindungsfähig. Ihre Antwort war die Gegenfrage an die Menschen: „Könnt ihr beweisen, dass ihr empfindungsfähig seid?

Gefühle werden durch unseren Hormonspiegel und durch den Input an Informationen von der Außenwelt erzeugt. Auch hier gilt: Wenn sich die Erzeugung von Gefühlen im Rahmen der bekannten Naturgesetze abspielt, so gibt es keinen Grund, warum Maschinen nicht auch Gefühle entwickeln können. Die Gefühle anderer Menschen können wir ausschließlich über deren Verhalten und durch Kommunikation mit ihnen feststellen. Verhalten sich Maschinen (z.B. menschenähnliche Roboter) gleichermaßen, so gibt es keinen Grund, ihnen Gefühle abzusprechen.

 

  1. Menschen haben eine Seele, Maschinen sind seelenlos

Der Begriff der Seele, so wie er von Seiten der Religionen gebraucht wird, beinhaltet alles das was die Person ausmacht, ihre Erinnerungen, ihre Fähigkeiten und ihre Persönlichkeit. Zusätzlich gilt, dass die Seele unsterblich ist. Nun wissen wir aber, dass unser Körper nach dem Tode zerfällt und mit ihm auch alle Fähigkeiten des Gehirns. Für die Annahme einer mystischen Substanz als Träger unserer Seele gibt es keinerlei Anhaltspunkte. Der Begriff der Seele ist also ein konstruierter Begriff, der dem Wunschdenken von Religionsanhängern entstammt und keinerlei Bezug zur Wirklichkeit hat. Es gibt keine unsterbliche Seele, weder in Maschinen noch in Menschen.

 

  1. Menschen haben einen freien Willen, Maschinen nicht

Wenn der Mensch wirklich über einen freien Willen (nach der strengen Definition von Immanuel Kant) verfügen sollte, was mittlerweile von der modernen Hirnforschung stark bezweifelt wird, so gibt es kein Naturgesetz, das diesen auf den Menschen beschränkt. Die Form des eingeschränkten Willens, die man als Handlungsfreiheit bezeichnet, ist problemlos auf Maschinen implementierbar, da sie auf algorithmischen Gesetzmäßigkeiten basiert. Fazit: wenn es einen freien Willen gibt, dann können ihn auch Maschinen haben, wenn nicht, dann stellt sich das Problem nicht.

 

Der Turing-Test

Wenn es dennoch tatsächlich prinzipielle Unterschiede zwischen Maschinen und Menschen gäbe, so müsste es auch ein objektives Verfahren geben, das in der Lage wäre, dies im Einzelfall festzustellen. Wie könnte dieses Verfahren aussehen? Entscheidend ist ja nicht so sehr das Aussehen, sondern das, was wirklich den Menschen ausmacht: Sein Geist, sein Bewusstsein, seine Würde. Stellen wir uns z.B. vor, man könnte Androiden herstellen, die äußerlich nicht von Menschen zu unterscheiden sind. Wie können wir feststellen ob diese Androiden über ein Bewusstsein verfügen? Oder anders ausgedrückt, gibt es eine Möglichkeit, festzustellen, ob man einen Menschen oder eine Maschine vor sich hat, ohne dass wir gleich zu einem Metalldetektor oder einem Röntgengerät greifen?

Ausgehend von dem logischen Satz, dass zwei nicht unterscheidbare Dinge als gleich anzusehen sind, hat Alan Turing bereits 1950 den nach ihm benannten „Turing-Test“ vorgeschlagen. Bei diesem Test befragt der Experimentator einen Menschen und einen Computer (bzw. Androiden) jeweils über ein Computerterminal. Das Experiment ist so aufgebaut, dass der Experimentator nicht sehen kann, mit welchem von beiden er gerade kommuniziert. Die Fragen sind dabei derart, dass zur Beantwortung reines Wissen nicht ausreicht, sondern bewusstes Denken notwendig ist. Ist der Experimentator nach eingehender Befragung nicht in der Lage, festzustellen, welche Antworten vom Computer und welche vom Menschen kommen, so ist dem Computer das gleiche Maß an bewusstem Denken zuzuschreiben, wie dem Menschen.

Gegen den Turing-Test gibt es von den Gegnern der starken künstlichen Intelligenz Einwände. Einmal könnte man z.B. den Computer so geschickt programmieren, dass er auf bestimmte Fragen vorgefertigte, menschliche Antworten aus seinem Speicher wiedergibt, ohne dabei wirklich bewusst zu denken. Auf der anderen Seite wäre es möglich, dass der Computer aufgrund seiner etwas anderen Denkweise Antworten gibt, die ihn als Computer entlarven, obwohl er über ein Bewusstsein verfügt. Der Turing-Test wäre damit kein wirklich hundertprozentig sicherer Test. Allerdings könnte man den ersten Fall weitgehend unterbinden, indem man den Denkprozess des Computers einer genaueren Analyse unterzieht und sicherstellt, dass die Antworten wirklich durch Nachdenken und nicht ausschließlich durch vorher abgespeicherte Daten erzeugt werden.

Es bleibt dennoch der Einwand, dass man eventuell eine Software programmieren kann, die Bewusstsein so geschickt vortäuscht, dass der Turing-Test bestanden wird. Das Gegenargument ist hier, dass die Prozesse der Evolution offensichtlich zur Entwicklung von Bewusstsein geführt haben und dass diese Entwicklung kein Nebeneffekt ist, sondern klare Vorteile im Überlebenskampf verschafft hat. Wenn das so ist, dann müssen sich aber Wesen mit Bewusstsein anders verhalten als Wesen ohne Bewusstsein (Zombies) und dieser Unterschied kann dann auch festgestellt werden.

In neuerer Zeit ist ein etwas verbesserter Turing-Test der folgenden Art vorgeschlagen worden: Die Testpersonen sehen sich einen Ausschnitt aus einem Film an und sollen ihn dann hinterher interpretieren, d.h. sie sollen die Handlung beschreiben und zusätzlich noch ihre eigenen Emotionen darlegen. Darüber hinaus gibt es eine Reihe weiterer Vorschläge für verbesserte Tests. Besonders überzeugend für uns wäre es wohl, wenn wir irgendwann feststellen, dass sich Maschinen gegenseitig Witze erzählen und sich darüber amüsieren.

Fazit: Mensch und Maschine werden zwar unterscheidbar bleiben, aber es lässt sich keine Eigenschaft finden, an der sich ein prinzipieller Unterschied zwischen Mensch und Maschine für alle Zeiten festmachen ließe. Noch entscheidender ist aber die Feststellung, dass sich die noch in vielen Bereichen vorhandene Überlegenheit des Menschen gegenüber Maschinen sich nicht für die Zukunft festschreiben lässt. Damit kann man die alte philosophische Frage von Immanuel Kant: „Was ist der Mensch“ folgendermaßen beantworten: Der Mensch ist eine Art Bio-Roboter, der durch die Zufälle und die Selektionsbedingungen der Evolution entstanden ist. Aus diesem Grund hat seine Existenz weder für ihn noch für sonst irgendwen einen tieferen letzten Sinn. Alles andere ist reines Wunschdenken.

Für die Gegner der beschriebenen Position bleibt als Ausweg entweder Mystik und Religion oder aber sie finden irgendwelche, bisher unbekannte, nichtalgorithmische, physikalische Naturgesetze, die nur in biologischen Materialien zur Wirkung kommen. Anhaltspunkte für letzteres gibt es bisher keine und Mystik und Religion liefern keine Erklärungen, sondern nur Verklärungen. Auch die Vermutung, dass im Gehirn quantenmechanische Interferenzeffekte4,5,6 eine merkliche Rolle spielen könnten, hilft nicht weiter, denn genau diese Effekte werden in Quantencomputern genutzt und solche Maschinen kann man sogar schon kaufen. Zum Abschluss noch ein passendes Wort des genialen Pioniers der Computertechnik, Alan Turing

Sage mir, was du glaubst, worin genau sich ein Computer von einem Menschen unterscheidet, und ich werde einen Computer bauen, der deinen Glauben widerlegt.

 

 

Literaturhinweise

1 John R. Searle: Die Wiederentdeckung des Geistes. Artemis & Winkler Verlag, (März 1998)

2  Dietrich Dörner: Bauplan für eine Seele. Rowohlt Taschenbuch Verlag, Auflage 2, 2001

3 Bernd Vowinkel: Maschinen mit Bewusstsein, wohin führt die künstliche Intelligenz? Verlag Wiley-VCH, 2006

4 Roger Penrose,: The Emperor’s New Mind, Penguin Books, New York 1991 (deutsch unter dem Titel Computerdenken, Spektrum Akademischer Verlag, Heidelberg Berlin 1991)

5 Roger Penrose: Schatten des Geistes, 1994, Ausgabe Spektrum Akademischer Verlag, Heidelberg Berlin 1995

6 Roger Penrose: Das Große, das Kleine und der menschliche Geist, 1997, Ausgabe Spektrum Akademischer Verlag, Heidelberg Berlin 2002

 

 

 

Advertisements

24. Oktober 2016

Wo sind die Außerirdischen?

Filed under: eigene Artikel — Schlagwörter: — berndvo @ 15:47

In letzter Zeit mehren sich die Meldungen, dass erdähnliche Planeten in anderen Sonnensystemen gefunden wurden. Das nährt die Hoffnung, dass wir nicht allein im Kosmos sind. Es könnte sogar sein, dass es in unserer Galaxis nur so von intelligentem Leben wimmelt. Aber wenn das so sein sollte, stellt sich sofort die Frage, warum wir noch keinen Kontakt zu den Außerirdischen bekommen haben. Eine etwas nähere Betrachtung zeigt aber, dass wir uns da keine zu großen Hoffnungen machen sollten.

Das Fermi-Paradoxon

Solange wir noch keinen Kontakt zu Außerirdischen haben, können wir nur Wahrscheinlichkeitsabschätzungen über ihre Existenz machen. In unserer Galaxis gibt es zweihundert bis vierhundert Milliarden Sterne. Nach neueren Erkenntnissen aus den Messungen, die mit dem Weltraum-Teleskop Kepler gewonnen wurden, hat ein erheblicher Anteil der Sterne auch Planeten. Der amerikanische Astrophysiker Frank Drake hat 1961 bei einer Konferenz in Green Bank die nach ihm benannte Drake-Gleichung vorgestellt, bei der die einzelnen Faktoren berücksichtigt werden, die notwendig sind für die Entwicklung intelligenten Lebens.

 

 

 

weiterlesen:

http://hpd.de/artikel/sind-ausserirdischen-13587

2. September 2016

Kommt die technologische Singularität?

Filed under: eigene Artikel — Schlagwörter: — berndvo @ 15:00

von Bernd Vowinkel

 

Mit dem Begriff der technologischen Singularität wird die in naher Zukunft zu erwartende explosionsartige Vermehrung der künstlichen Intelligenz bezeichnet. Im Zentrum steht dabei die Frage, ob sich die künstliche Intelligenz alle intellektuellen Fähigkeiten des Menschen aneignen kann. Wenn das wirklich eintreffen sollte, wäre es mit gewaltigen Auswirkungen auf unser Leben und unsere Gesellschaft verbunden. Manche befürchten gar eine Machtübernahme der Maschinen und damit dann womöglich das Ende der Menschheit.

 

 

Definition der technologischen Singularität

 

Der Begriff Singularität wird in den Naturwissenschaften für Größen verwendet, die gegen unendlich tendieren. Ein Beispiel ist die Massendichte in Schwarzen Löchern. 1965 beschrieb der Statistiker I. J. Good ein Konzept, das den Begriff auf die Entwicklung der künstlichen Intelligenz anwendet. Er definiert es folgendermaßen:

 

Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.

 

Besonders populär wurde der Begriff aber erst durch das Buch „The Singularity is near“ von Raymond Kurzweil 1998 (deutsche Übersetzung: „Menschheit 2.0“). Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen.

 

Mit der künstlichen Intelligenz (KI) versucht man die intellektuellen Fähigkeiten des Menschen mit Hilfe von Computern nachzuahmen. Man unterscheidet zwischen schwacher und starker KI. Bei der schwachen KI geht es darum, konkrete Aufgaben zu bewältigen, die sich mit vorgegebenen Algorithmen bearbeiten lassen. Die starke KI geht darüber hinaus und sieht das menschliche Gehirn als eine Art Biocomputer an, dessen Fähigkeiten einschließlich des Bewusstseins und der Emotionen durch einen Computer vollständig nachvollzogen werden können. Die Position der starken KI findet heftigen Widerspruch vor allem aus dem Lager der Geisteswissenschaften. Durch die gewaltigen Fortschritte, sowohl im Bereich der Hardware als auch der Software, gewinnt aber mittlerweile die Einsicht an Boden, dass es keine geistige Fähigkeit des Menschen gibt, die längerfristig nicht mit der künstlichen Intelligenz nachvollzogen werden kann. Dies schließt auch Emotionen und die ästhetische Urteilskraft mit ein. In Anwendungsbereichen, bei denen es überwiegend um die Manipulation von Zahlen und großen Datenmengen geht, ist die KI schon heute dem Menschen weit überlegen. Ihr Einsatz in den Bereichen Verwaltung, Geldtransfer, Optimierung und Steuerung von Produktionsanlagen usw. trägt mittlerweile ganz erheblich zur Wirtschaftskraft der entsprechenden Volkswirtschaften bei. Im privaten Anwendungsbereich haben die Smartphones die Art unserer Kommunikation stark verändert.

 

Bewahrheitet sich die Machbarkeit der starken KI, so würde das auch eine endgültige Entmystifizierung des menschlichen Geistes nach sich ziehen. Bezüglich der Machbarkeit der starken KI wird sich vermutlich der Spruch bewahrheiten: „Alle sagten: das geht nicht! Dann kam einer, der wusste das nicht und hat es einfach gemacht“

(more…)

23. April 2016

Die Gentechnik und der Transhumanismus

Filed under: eigene Artikel — Schlagwörter: — berndvo @ 07:17

KÖLN. (hpd) Vom Standpunkt des Transhumanismus aus gesehen, ist der Alterungsprozess des menschlichen Körpers eine Erbkrankheit, die in Zukunft geheilt werden kann. Der Mensch ist das Ergebnis einer über Jahrmillionen abgelaufenen Evolution. Wesentlicher Bestandteil des Evolutionsprozesses ist die Selektion. Sie ist in der Regel ein ausgesprochen brutaler Prozess der mit extremem Leid verbunden ist. Die Naturwissenschaft ist nun mittlerweile so weit fortgeschritten, dass wir die zukünftige Weiterentwicklung des Menschen selbst in die Hand nehmen können. Sie wird uns in die Lage versetzen, das durch Krankheiten und Altern bedingte Leid zu reduzieren und die positiven Fähigkeiten des Menschen weiter zu optimieren. Während die Manipulation von Genen bis vor wenigen Jahren noch ein sehr aufwändiger Prozess war, hat sich dieser durch die Entwicklung der neuen CRISPR/Cas9-Technik nun drastisch vereinfacht.

 

weiterlesen:

http://hpd.de/artikel/gentechnik-und-transhumanismus-13012

16. September 2015

Gentechnik: Die Optimierung des Menschen

Filed under: eigene Artikel — Schlagwörter: — berndvo @ 05:15

Die Gentechnik ist aufgrund der CRISPR-Innovation in eine Phase der Euphorie getreten. Sie eröffnet Möglichkeiten von der Erzeugung von Designerbabys bis zu neu konstruierten biologischen Wesen. Dadurch ergeben sich laut Bernd Vowinkel nicht nur Risiken, sondern auch Chancen.
Die Gentechnik ist eine der zentralen Technologien des sogenannten Transhumanismus. Die Bezeichnung „Transhumanismus“ wurde erstmals im Jahr 1957 vom Biologen Julian Huxley (Bruder von Aldous Huxley, Autor von Brave New World) geprägt. Er definiert in New Bottles for new Wine den transhumanistischen Menschen als „Mensch, der Mensch bleibt, aber sich selbst, durch Verwirklichung neuer Möglichkeiten von seiner menschlichen Natur und für seine Natur, überwindet“. [1] Die Gentechnik ist eine dieser neuen Möglichkeiten.

Im Science-Fiction-Spielfilm Gattaca aus dem Jahr 1997 gibt es eine Szene, in der ein Ehepaar zusammen mit seinem „Gentechniker“ bespricht, welches Aussehen und welche Fähigkeiten ihr zukünftiges Kind haben soll. Zur Zeit der Entstehung des Films war das tatsächlich noch reine Science-Fiction. Die Entwicklung der Gentechnik hat seitdem gewaltige Fortschritte gemacht. Im Jahr 2003 wurde erstmals das menschliche Genom einer Person vollständig entschlüsselt. Damals war der Aufwand noch gewaltig. Inzwischen gibt es hochentwickelte Sequenzier-Maschinen, die das komplette menschliche Genom so schnell und effektiv entschlüsseln können, dass Firmen [2] diese Arbeit schon für unter 1000 US-Dollar anbieten können.

 

 

weiterlesen:

http://www.novo-argumente.com/magazin.php/novo_notizen/artikel/0002169?utm_content=buffer5e83d&utm_medium=social&utm_source=facebook.com&utm_campaign=buffer

12. Juni 2014

MenschMaschine-Visionen

Filed under: eigene Artikel — Schlagwörter: — berndvo @ 08:54

 

Unter dem Titel “MenschMaschine-Visionen” fand am 4.Juni 2014 in Berlin ein von der Daimler und Benz Stiftung organisiertes Kolloqium statt. Man kann es als erste seriöse Tagung zum Themenkreis des Transhumanismus im deutschsprachigen Raum einstufen. Bestritten wurde die Veranstaltung im Wesentlichen von Experten aus den Bereichen der neuronalen Implantate, der Prothetik und der Ethik und Gesellschaftswissenschaften.

 

Während die Vorträge einerseits zeigten, dass Deutschland sowohl bei der Forschung als auch bei der technischen Umsetzung von Methoden der Verbindung von Mensch und Maschine international sehr gut mithalten kann, fehlten andererseits Visionäre vom Schlage eines Ray Kurzweil oder Nick Bostrom. Die wesentliche Erkenntnis der Veranstaltung war wohl, dass der Transhumanismus jetzt auch in unserem Land in der Mitte der Gesellschaft angekommen ist.

Während der Transhumanismus in vielen Ländern schon längere Zeit diskutiert wird, stieß er im deutschsprachigen Raum bisher auf eher geringes Interesse. Gründe dafür liegen wohl in einer weit verbreiteten Aversion gegenüber neuen Technologien und einem immer noch stark christlich geprägten Menschenbild, dass die Optimierung des Menschen als sündhaften Eingriff in die Schöpfung sieht. Insofern kann man die Daimler und Benz Stiftung nur zu ihrem Mut beglückwünschen, sich dieses Themas angenommen zu haben.

Die Tagung war perfekt organisiert und die Vorträge hatten alle ein hohes Niveau. Die Besucherzahl lag bei etwa 160. Beim öffentlichen Abendvortrag waren sogar schätzungsweise 500 Besucher anwesend. Als Betreiber eines Blogs zum Thema Transhumanismus war ich als “Journalist” eingeladen und konnte daher vor Beginn des offiziellen Programms an einer Pressekonferenz mit einem Teil der Referenten teilnehmen. Meine Frage an Prof. Stieglitz vom Institut für Mikrosystemtechnik der Universität Freiburg, ob er der Ansicht ist, dass man das menschliche Gehirn und seine Funktionen vollständig im Rahmen der Naturwissenschaften erklären kann und wenn ja, ob dazu die klassische Physik und die darauf aufbauende Biochemie ausreicht, oder ob quantenmechanische Effekte eine essentielle Rolle spielen, konnte er nicht wirklich zufrieden stellend beantworten. Andererseits ist er sich aber absolut sicher, dass man grundsätzlich das Gehirn nicht durch Technik wird ersetzen können. Eine wissenschaftlich fundierte Begründung für sein hellseherisches Urteil konnte er jedoch nicht liefern.

Schnittstelle Neuron & Prothese

Nach der Begrüßung durch Prof. Dr. Eckard Minx, Vorsitzender und Mitglied des Vorstands der Daimler und Benz Stiftung ging es im ersten Vortragsblock mehr um reine Medizintechnik. Prof. Stieglitz berichtete über seine Forschung der Weiterentwicklung von Neuroimplantaten. Die Schnittstelle zwischen Material und Gewebe ist besonders kritisch. Zuweilen gibt es Abwehrreaktionen des Körpers, die langfristig die elektrische Leitfähigkeit so stark reduzieren können, dass die Implantate erneuert werden müssen. Gerade dann, wenn jüngere Patienten mit Neuroimplantaten versorgt werden müssen, stellt das ein großes Problem dar. Wünschenswert wäre eine Haltbarkeitsdauer die der menschlichen Lebenserwartung entspricht. Der anschließende Vortrag von Dr. Graimann, der bei dem Prothetik Hersteller Otto Bock HealthCare GmbH angestellt ist, behandelte den derzeitigen Stand der Prothetik. Erstaunlich ist, wie hoch bereits der Entwicklungsstand rein passiver Prothesen ist. Das Ziel ist aber die Realisierung von neuronal aktiven Prothesen, die nicht nur fast alle Freiheitsgrade menschlicher Gliedmaßen besitzen und aktiv bewegt werden können, sondern auch eine Rückmeldung von Gefühlssensoren an die Nervenbahnen ermöglichen und somit die ursprünglichen Fähigkeiten wieder fast ganz herstellen. Damit rückt langsam die Szene aus einem der Star Wars Filme, in der Luke Skywalker eine Prothese angepasst wird, die seinen abgeschlagenen Arm mit allen Funktionen ersetzt, in den Bereich der Machbarkeit.

Was in beiden Vorträgen klar wurde, war, das der Schritt von der reinen Wiederherstellungsprothetik zu einer Prothetik, die dem Menschen Fähigkeiten verleiht, die über das normale menschliche Maß hinausgehen, nur ein sehr kleiner ist. Als Beispiel wurde der Sprinter Oscar Pistorius erwähnt, der mit Hilfe seiner Beinprothesen in der Lage ist, Höchstleistungen zu erreichen. So startete er bei den Olympischen Spielen 2012 in London in der 4 x 400m Staffel für Australien und erreichte mit seiner Mannschaft den achten Platz. Bei einem wesentlich größeren Erfolg hätte es sicherlich Proteste gegeben, weil seine Prothesen ihn zu unerlaubten Vorteilen verhelfen. Man könnte sogar so weit gehen und den Beginn des Zeitalters des Transhumanismus an diesem Beispiel festmachen.

Schnittstelle Ethik & Gesellschaft

Im zweiten Vortragsblock ging es um ethische und gesellschaftliche Fragestellungen und Folgen der Optimierung von Menschen. Zunächst hielt Christopher Coenen vom Karlsruher Institut für Technikfolgenabschätzung und Systemanalyse einen sehr gut recherchierten Vortrag über “Human Enhancement: Historischer Hintergrund und aktuelle gesellschaftliche Herausforderungen.” Dabei ging er auch auf die Visionen des Transhumanismus ein, die bis hin zur potentiellen Unsterblichkeit des individuellen Bewusstseins in einer Superstruktur (Upload) und der Eroberung des Weltraums mit von der Erde stammender künstlicher Intelligenz reichen. Er ist der Ansicht, dass Visionäre wie z.B. Ray Kurzweil durchaus einen Einfluss auf die Gesellschaft und die Forschungspolitik haben, obwohl ihre Vorhersagen von vielen Wissenschaftlern als zu optimistisch eingeschätzt werden. Hier ist zum Teil der Effekt einer sich selbst erfüllenden Prophezeiung zu erkennen. Zum Schluss seines Vortrags ging er noch auf die Kritik am Transhumanismus ein. Ein wichtiger Punkt ist, dass die neuen Optimierungstechnologien aus finanziellen Gründen wohl nur einer Minderheit vorbehalten sein wird. Weiterhin ist auch durchaus denkbar, dass aus beruflichen Gründen Druck ausgeübt wird, sich in bestimmtem Fähigkeiten optimieren zu lassen.

Prof. Clausen von Institut für Ethik und Geschichte der Medizin der Universität Tübingen hielt anschließend einen Vortrag zum Thema “Verschwimmen die Grenzen zwischen Mensch und Maschine?” Er zeigte die Möglichkeiten und die damit verbundenen Probleme der Optimierung von Menschen auf. Bei einigen Methoden wird die genaue Unterscheidung zwischen Mensch und Technik schwierig. Dabei tritt dann die Frage auf, wer handelt hier eigentlich und wer ist verantwortlich? Wird der Mensch durch die modernen Technologien zum Cyborg und müssen wir uns davor fürchten?

Es folgte ein Vortrag von Prof. Reinhard Merkel vom Institut für Kriminalwissenschaften der Universität Hamburg. Er machte in letzter Zeit auf sich aufmerksam durch seine vernünftige Position zur rituellen Beschneidung, die er auch im Deutschen Ethikrat vertrat.

Sein Vortrag ist besonders hervorzuheben, weil er die ethische Grundlage des Transhumanismus und damit die eigentliche Kernfrage der Diskussion um das “Human Enhancement” ansprach. Während religiös orientierte Kritiker den gesamten Transhumanismus ablehnen, weil er als Eingriff in die Schöpfung Gottes gesehen wird, argumentieren Kritiker aus humanistischen Kreisen eher mit dem Argument, dass diese Entwicklung mit der Unverletzlichkeit der Menschenwürde nicht vereinbar sei. Merkel machte überzeugend klar, dass die Menschenwürde völlig ungeeignet ist zur Beurteilung des Transhumanismus und davon abgesehen ohnehin kaum ohne Rückgriff auf Dogmen definiert werden kann. Sehr viel sinnvoller erscheint hier die Beurteilung nach dem Recht der emotionalen Selbstbestimmung und da zeigt sich, dass man jedem das Recht zugestehen muss, über Verbesserungen seines Körpers selbst zu bestimmen. Natürlich darf dann auch niemand zu solchen Maßnahmen gezwungen werden oder unter Druck gesetzt werden. Ein Optimierungsverbot aber, das mit Ewigkeitsgarantie unsere biologischen Gattungsgrenzen verbürgt, würde sich gegen die Evolution selbst richten. Nach Meinung von Merkel darf man daher den Artikel 1 des Grundgesetzes so nicht interpretieren. Ein prinzipielles Recht auf Bestandsschutz einer tradierten gesellschaftlichen Lebensform kann es nicht geben.

Schnittstelle Zukunft & Heilung

Im letzten Vortragsblock führte zunächst Prof. Sturm von der Neurochirurgischen Universitätsklinik Würzburg anhand von Videoeinspielungen den Erfolg der tiefen Hirnstimulation mit Hilfe von Schrittmachern vor. Auf diese Weise können insbesondere an Parkinson erkrankte Patienten sehr gut symptomatisch behandelt werden. Er ließ sich allerdings zu der Prophezeiung hinreißen, dass man die Fähigkeiten des Gehirns nie mit einem Computer wird simulieren können. Wie sich zeigte, basiert seine Meinung auf einem Denkfehler. Multipliziert man die Anzahl der Nervenzellen (Neuronen) mit der Anzahl der Synapsen pro Zelle, so kommt man auf einen Wert von etwa 1 E14. Rechnet man jeder Synapse einen Bit als Speicherfähigkeit zu, dann entspricht dieser Wert der theoretischen Obergrenze der Speicherfähigkeit des Gehirns in Bit. Sturm meinte nun, dass man zu einer angemessenen Simulation des Gehirns alle Permutationen der gespeicherten Bits durchführen müsse. Da kommt man leicht auf eine extrem große Zahl. Das aber ist völliger Unfug. Man braucht zur Simulation keinesfalls mehr als die besagten 1 E14 Bits, was etwa 10 Terabyte entspricht und dieses wiederum entspricht dem Speichervermögen von etwa 10 PC-Festplatten. Da aber Computer weniger Redundanz brauchen, da sie zuverlässiger als Neuronen bzw. deren Synapsen speichern, liegt man mit einer Festplatte von 1 Terabyte wohl schon eher in der richtigen Größenordnung. Die Rechenleistung des Gehirns (etwa 10 Millionen MIPS) wird mittlerweile ebenfalls von schnellen PCs knapp erreicht. In weiteren zwei bis drei Jahren wird man hinsichtlich der Hardware von einem Gleichstand zwischen PC und menschlichem Hirn ausgehen können.

Ist das Gehirn wirklich so komplex, dass wir vor Ehrfurcht erstarren sollten? Nein, denn der genetische Bauplan umfasst die recht geringe Datenmenge von nur etwa 25MB. Ist die Programmierung des Gehirns so komplex und geheimnisvoll, dass man diese nie mit Computern nachahmen kann? Nein, es gibt schon jetzt Programme, wie z.B. “Watson” von IBM, dass Fragen durch regelrechtes Nachdenken beantworten kann. Ray Kurzweil behauptet sogar in seinem neuen Buch “Das Geheimnis des menschlichen Denkens”, dass der Algorithmus menschlichen Denkens weitgehend entschlüsselt ist und zwar durch das „Hierarchical Hidden Markov Model2. Wer also heute noch allen Ernstes behauptet, dass wir nie in der Lage sein werden, das Gehirn zu verstehen und mit künstlicher Intelligenz nachzubauen, muss sich vorwerfen lassen, nicht auf dem aktuellen Stand der Wissenschaft zu sein. Die Frage, wann ein Computer zum ersten Mal mit dem Menschen gleichzieht, indem er den so genannten Turing-Test besteht, wurde von Ray Kurzweil für das Jahr 2029 vorhergesagt. Man hat ihn dafür von deutscher Expertenseite her als gnadenlosen Optimisten verunglimpft. Nur wenige Tage nach der Veranstaltung, am 09.Juni 2014 kam nun die Meldung bei Spiegel Online, dass eine in Russland entwickelte Software den Test bestanden hat. Wahrscheinlich werden jetzt die Bedenkenträger behaupten, dass der Test ungeeignet sei, um wahre Intelligenz feststellen zu können, ohne aber eine Alternative benennen zu können.

Der Vortrag von Prof. Metzinger (Beiratsmitglied der Giordano-Bruno-Stiftung) vom Philosophischen Seminar der Universität Mainz hatte das Thema “Virtual Embodiment und Robotic Re-Embodiment”. Unter virtueller Verkörperung versteht man Verfahren, mit denen man in die virtuelle Realität eines Avatars oder die Realität eines Roboters versetzt wird. Anhand von einigen erstaunlichen psychologischen Experimenten zeigte Metzinger, wie stark sich das Ich-Gefühl auf einen Avatar übertragen lässt. Er thematisierte auch die möglichen Folgen der Technologie, wie Depersonalisierungsstörungen, dauerhafte Änderungen im Sozialverhalten, veränderte Wahrnehmung der Außenwelt, unrealistische Hoffnungen, Suchtpotenzial und militärische Anwendungen bei der Fernsteuerung von Kampfrobotern und Drohnen. Schließlich werfen diese neuen Technologien auch juristische Probleme auf. Wer ist verantwortlich, wenn ein Roboter außer Kontrolle gerät? Brauchen wir ein Strafrecht für Maschinen? Den Einsatz von Kampfdrohnen, wie sie von den USA in Afghanistan und Pakistan durchgeführt werden, sieht Metzinger als Verletzung des Völkerrechts, weil hier Bürger souveräner Staaten in anderen Staaten ohne Gerichtsverhandlung hingerichtet werden.

Im Letzten Vortrag berichtete Frau Prof. Lesinski-Schiedat von der Medizinischen Hochschule Hannover über die Entwicklung von Cochlea-Implantaten für Gehörlose. Sie erklärte, dass bei taub Geborenen eine Versorgung innerhalb des ersten Lebensjahres ganz entscheidend für die weitere sprachliche und geistige Entwicklung ist. Weiterhin diskutierte sie, inwieweit das Lernen der Gebärdensprache für operierte Kleinkinder Sinn macht. Insbesondere bei taubstummen Eltern kann das von Vorteil sein.

Abendvortrag

Der öffentliche Abendvortrag mit dem Thema “Übermenschenbilder: Cyborgs und andere Visionen transhumanen Lebens” wurde von Prof. Freyermuth, Gründungsdirektor des Cologne Game Lab und Professor für Media and Game Studies an der Fachhochschule Köln gehalten. Er zeigte die geschichtliche Entwicklung der Vorstellung von Maschinenmenschen anhand von Bildern und Filmausschnitten. Interessanterweise stellte er fest, dass in älteren Filmen Cyborgs meistens als Bedrohung der Menschheit gesehen wurden, während sie in neueren Filmen teilweise sogar als Retter der Menschheit vor ihrer eigenen Dummheit dargestellt werden. Insgesamt gibt es in den Medien eine Entwicklung zu einer positiveren Darstellung von Cyborgs und anderen transhumanistischen Entwicklungen.

Fazit

Die Technologien zur Verbindung von Mensch und Maschine schreiten mit großer Geschwindigkeit voran und sie werden zwangsläufig immer häufiger in unserer Gesellschaft diskutiert. Viele werden diese Entwicklung sehr skeptisch verfolgen und sich fragen, ob man sie nicht stoppen sollte. Der Pionier des Transhumanismus Ray Kurzweil ist der Meinung, dass man die Entwicklung nur in totalitären Staaten wird unterbinden können. Völlig falsch wäre es, die vorhergesagten technologischen Entwicklungen als reine Science Fiction abzutun. Wir sollten uns stattdessen der Probleme die auf uns zukommen bewusst werden und versuchen, die Entwicklung in vernünftige Bahnen zu lenken. In der ethischen Beurteilung sollten wir uns nicht an dogmatische Definitionen, wie etwa der Menschenwürde orientieren, sondern eher pragmatisch daran, ob eine neue Technologie das Leid auf unserem Planeten vergrößert oder reduziert.

 

Bernd Vowinkel

27. Juni 2013

Das Geheimnis menschlichen Denkens ist enthüllt

Filed under: eigene Artikel, Rezension — Schlagwörter: , — berndvo @ 20:54

In seinem Buch „How to Create a Mind“ zeigt der bekannte amerikanische Futurist und Pionier der künstlichen Intelligenz Ray Kurzweil, dass mittlerweile die Art und Weise, wie menschliches Denken funktioniert, weitgehend entschlüsselt ist. Nach seiner Meinung werden wir mit dieser Erkenntnis innerhalb der nächsten zwei Jahrzehnte in der Lage sein, Computer mit allen geistigen Fähigkeiten des Menschen auszustatten. Der Schritt, über diese Fähigkeiten hinauszugehen, ist dann nur noch ein eher kleiner.

 

Ray Kurzweil genießt im englischsprachigen Raum hohes Ansehen. So erhielt er 19 Ehrendoktortitel und eine ganze Reihe von Auszeichnungen, darunter die „National Medal of Technology“. Er gilt als eine der Leitfiguren des Trans- und des Posthumanismus. Er ist Pionier der optischen Texterkennung, der Sprachsynthese, der Spracherkennung, der Flachbettscannertechnologie und der elektronischen Musikinstrumente (insbesondere Keyboards) und hat in diesen Bereichen eine Reihe von Firmen gegründet. Seit 2012 arbeitet er als leitender Ingenieur bei Google. Sein 2005 veröffentlichtes Buch „The Singularity Is Near“ war ein Bestseller. Im Verlag lolabooks ist gerade eine deutsche Übersetzung unter dem Titel „Menschheit 2.0, die Singularität naht“ erschienen. Der Verlag plant, auch das hier besprochene Buch demnächst in deutscher Sprache herauszugeben.

Der Algorithmus des Denkens

In der ersten Hälfte des Buches gibt Kurzweil einen zusammenfassenden Überblick über den gegenwärtigen Stand der Hirnforschung. Die grundlegenden Funktionseinheiten des Gehirns sind die Nervenzellen (Neuronen). Sowohl ihre biochemische Funktion als auch die daraus resultierende Funktion der Informationsverarbeitung sind weitestgehend erforscht und es gibt gute Simulationsmodelle dafür. Da als Grundlage dieser Modelle die klassische Physik und die sich daraus ableitende Biochemie ausreichend ist und sich diese Teile der Naturwissenschaften vollständig algorithmisch beschreiben lassen, ist damit zwangsläufig auch die Funktion der Neuronen vollständig algorithmisch beschreibbar. Das häufig vorgebrachte Gegenargument, dass die Neuronen teilweise analog arbeiten und somit mit einem Digitalcomputer nicht ausreichend simuliert werden können, begegnet Kurzweil mit dem Hinweis dass z.B. die analoge Größe der Leitfähigkeit in den Synapsen der Neuronen völlig ausreichend mit 8 Bit verschlüsselt werden kann. Analoge Vorgänge können grundsätzlich mit jeder gewünschten Präzision in Digitalcomputern simuliert werden.

Der Teil des Gehirns, in dem bewusstes Denken stattfindet, ist der Neocortex. Es ist die äußere Schicht des Großhirns mit einer Stärke von 2 bis 5mm, die selbst wieder aus sechs einzelnen Schichten besteht. Durch die Faltung des Gehirns ist die Gesamtfläche vergleichsweise groß (1800 qcm). Man kann hier Einheiten, so genannte cortikale Säulen, identifizieren, die jeweils aus etwa 10 000 Neuronen bestehen. Der Teil des genetischen Codes, in dem der Bauplan des menschlichen Gehirns steckt, hat einen Umfang von ca. 25MB. Das ist eine erstaunlich geringe Datenmenge. Der Bauplan eines heutigen Verkehrsflugzeugs benötigt eine hundert bis tausendmal größere Datenmenge. Es ist nach Kurzweil wohl so, dass im genetischen Code im Wesentlichen die Baupläne für die Grundbausteine (Neuronen und z.B. ihre Organisation zu cortikalen Säulen) des Gehirns verschlüsselt sind und die Anweisung, wie oft diese zu vervielfältigen sind. Bei einem Embryo mit voll entwickeltem Gehirn sind sozusagen nur die Hardware und ein einfaches Betriebssystem vorhanden. Alles andere muss erlernt werden. Dieser Prozess beginnt in begrenztem Umfang durchaus schon vor der Geburt.

Unser Denken besteht im Wesentlichen aus der Erkennung und der Manipulation von Mustern. Insgesamt können wir bis zu 300 Millionen verschiedene Muster unterscheiden. Zur Speicherung und Verarbeitung werden jeweils um die 100 Neuronen verwendet. Obwohl die Verarbeitungsfrequenz in unserem Gehirn nur zwischen 100 und 1000Hz liegt und damit mehr als eine Million mal kleiner als in unseren Computern ist, schafft unser Gehirn eine Mustererkennung innerhalb von Sekundenbruchteilen. Der Grund dafür ist, dass hier die Datenverarbeitung extrem parallel erfolgt. Nach Kurzweil ist der Algorithmus nach dem dies geschieht, mathematisch am bestem mit dem so genannten Hierarchical hidden Markov model (HHMM) zu beschreiben. Es handelt sich dabei um ein künstliches neuronales Netz, das mit zum Teil statistischen Methoden aus einer Datenmenge bestimmte Muster erkennen kann.

Beim Lesen von Text muss man sich das z.B. so vorstellen, dass in der untersten Hierarchieebene zunächst einfache geometrische Muster aus den vom Sehnerv kommenden Signalen erkannt werden wie z.B: Linien, Bögen und Kreise, wobei bereits in der Netzhaut des Auges eine Datenkompression erfolgt. In der nächsten höheren Ebene werden daraus Buchstaben erkannt. Danach erfolgt die Erkennung von Wörtern, dann folgen Sätze. In der höchsten Stufe werden wir uns des Inhalts eines Satzes bewusst. Alle diese Denkprozesse laufen ausschließlich algorithmisch ab und obwohl sie damit deterministisch sind, können trotzdem Zufälle im Rahmen des so genannten deterministischen Chaos eine Rolle spielen. Das Denken des menschlichen Gehirns und die Abläufe in ähnlich aufgebauten künstlichen neuronalen Netzen lassen sich daher nicht vollständig vorhersagen.

Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten der Informationsverarbeitung der Zelle. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet und sie ist unabhängig von einer bestimmten Materie. Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig von dem konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass die Abläufe innerhalb der Neuronen algorithmisch ablaufen, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine und dieses wiederum heißt im Umkehrschluss, dass es prinzipiell möglich sein muss, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, die der Mensch hat, einschließlich des Bewusstseins.

Maschinen lernen denken

Im zweiten Teil des Buches zeigt der Autor, wie nun die Erkenntnisse der Hirnforschung dazu genutzt werden können, Computerprogramme zu erstellen, die wie das menschliche Denken funktionieren. Die Hauptanwendungsgebiete liegen derzeit in der Mustererkennung. So basiert das Spracherkennungsprogramm Siri, das auf dem iPhone 4S und dem iPhone 5 installiert ist, auf einem künstlichen neuronalen Netz, das lernfähig ist und sich mit der Zeit auf seinen Nutzer einstellt. Microsoft stattet jetzt seine neuen Smartphones mit einem verbesserten Spracherkennungsprogramm aus, das doppelt so schnell arbeitet wie Siri und um 15% zuverlässiger sein soll. Eines der derzeit am weitesten fortgeschrittenen Programme in Bezug auf die Simulation menschlichen Denkens ist „Watson“ von der Firma IBM. Es ist in der Lage, ganze Sätze zu verstehen und darauf sinnvolle Antworten zu geben. Bei dem im amerikanischen Fernsehen beliebten Spiel „Jeopardie“ hat es im Jahr 2011 besser abgeschnitten als die besten menschlichen Kandidaten. Bei diesem Spiel muss auf einen Satz, der eine Antwort darstellt, die zugehörige richtige Frage gefunden werden. Das Programm kann durch einen Lernprozess für verschiedenste Fähigkeiten optimiert werden. Eine kleine Gruppe bei IBM hat dem Programm inzwischen beigebracht, neue Kochrezepte zu erstellen. Die menschlichen Geschmackseindrücke wurden dabei vorher einprogrammiert.

Ray Kurzweil selbst hat jahrzehntelange Erfahrung im Programmieren von lernfähigen Mustererkennungsprogrammen. Nach seiner Erfahrung arbeiten diese Programme dann am besten, wenn man sie in ihrem Aufbau als neuronalem Netz dem menschlichen Gehirn nachempfindet. Für die jeweilige Aufgabe kann man gewisse Grundregeln einprogrammieren. Die Feinheiten erlernt das Programm dann selbstständig durch seinen praktischen Gebrauch. Zusätzlich kann man noch einen evolutionären Optimierungsvorgang einbauen, der die Verschaltung des Netzes für die jeweilige Aufgabe optimiert, so wie das auch im menschlichen Gehirn geschieht. Auf die Frage, wann es gelingt, Computer mit allen menschlichen geistigen Fähigkeiten einschließlich des Ich-Bewusstseins auszustatten, gibt Kurzweil das Jahr 2029 an. Zu diesem Zeitpunkt wird nach seiner Meinung das erste Computerprogramm den so genannten Turing-Test bestehen. Was danach geschieht, hat er ausführlich in seinem Buch „The Singularity is Near“ beschrieben. Es wird nach seiner Meinung eine rasante Vervielfachung der Rechenleistung und der Fähigkeiten der künstlichen Intelligenz geben, die gewaltige Auswirkungen auf unsere Gesellschaft haben werden.

Die Kritiker

Wie nicht anders zu erwarten, gibt es auch heftige Kritik an den Positionen von Kurzweil, zumal für viele die mögliche Machbarkeit von künstlichem Bewusstsein eine Kränkung ihres Menschenbildes darstellt. Insbesondere im deutschsprachigen Raum gibt es eine tief greifende Aversion gegen die Ideen von Ray Kurzweil und generell gegen den Transhumanismus und den Posthumanismus. Wahrscheinlich ist einer der Gründe, dass die meisten immer noch einer christlichen Ethik und einem Menschenbild verbunden sind, die ihre Ursprünge in der Bronzezeit haben. Daneben gibt es ein tiefes und zum Teil irrationales Misstrauen gegenüber neuen Technologien. So glauben religiös oder metaphysisch inspirierte Intellektuelle nach wie vor an den Dualismus von Leib und Seele bzw. Geist und Körper. Sie können aber keine wirklich nachvollziehbaren rationalen Argumente für ihre Position anführen. Insofern ist das eine reine Glaubensfrage. Den Naturwissenschaften etwas mehr zugeneigte Geisteswissenschaftler vertreten häufig die Position, dass man zwar womöglich alle geistigen Fähigkeiten des Menschen mit einem Computer simulieren kann, aber die Simulation immer noch etwas anderes ist als die Wirklichkeit, ähnlich wie die Simulation des Wetters etwas anderes ist als das Wetter selbst. Prominenter Vertreter dieser Position ist der amerikanische Philosoph John Searle. In  seinem Buch „Die Wiederentdeckung des Geistes“ geht er zwar davon aus, dass das menschliche Gehirn im Rahmen des Naturalismus vollständig beschrieben werden kann als eine Art Bio-Computer, dass aber seine Fähigkeiten nicht mit der künstlichen Intelligenz gleichrangig nachvollzogen werden können. Der Denkfehler der dieser Position zugrunde liegt, ist die Ansicht, dass unsere geistigen Fähigkeiten an eine bestimmte Materie gebunden sind. Im Kern ist aber Denken nichts anderes als Informationsverarbeitung und dies geschieht auf der untersten Ebene als reine Symbolverarbeitung und dies ist bereits ein abstrakter Vorgang. Ray Kurzweil schreibt dazu: „Wenn das Verstehen von Sprache und anderer Phänomene über statistische Analysen (wie z.B. bei moderner Spracherkennungssoftware) nicht als wahres Verstehen zählt, dann haben Menschen auch kein wahres Verstehen.“

Fachleute der künstlichen Intelligenz an deutschen Hochschulen und Universitäten bezeichnen die Ansichten von Kurzweil häufig als überzogen optimistisch in Bezug auf die Machbarkeit der künstlichen Intelligenz und ihrer Auswirkungen auf die Menschheit. Allerdings geht Kurzweil bereits in seinem Buch „The Singularity is Near“ neben den großen Chancen auch auf die Gefahren der neuen Technologien ein. Insofern ist der Vorwurf nicht ganz zutreffend. Für seine Kritiker hat er eine Analyse seiner eigenen Vorhersagen aus seinem Buch „The Age of Spiritual Maschines“ gemacht. Das Buch erschien 1999. Von seinen 147 einzelnen dort gemachten Vorhersagen für das Jahr 2009 waren 78% voll zutreffend. Weitere 8% waren im Prinzip richtig, traten aber bis zu 2 Jahre später ein als vorhergesagt. 12% waren nur teilweise korrekt und 2% waren falsch. Zu den falschen Vorhersagen gehört, dass es bis 2009 Autos gibt, die ohne Fahrer betrieben werden können. Aber selbst in diesem Fall muss man zugestehen, dass das Problem technisch durchaus bereits gelöst ist. So hat Google im Oktober 2010 einen elektrisch angetriebenen Lieferwagen fahrerlos über 13000 km von Italien nach China fahren lassen. Im Moment liegt das Problem zur generellen Einführung dieser Technik eher bei den fehlenden gesetzlichen Regelungen. Man muss sich angesichts dieser Zahlen fragen, wer von den Kritikern eine bessere Statistik seiner eigenen Vorhersagen vorlegen kann. Bill Gates meint jedenfalls dazu: „Ray Kurzweil ist von denen Personen, die ich kenne, am besten geeignet die Zukunft der künstlichen Intelligenz vorauszusagen“.

Deutsche Bedenkenträger

Während Pioniere wie Ray Kurzweil den Weg in eine Zukunft weisen mit weniger Leid und mehr Lebensqualität, sehen selbsternannte Ethikexperten in unserem Land schon bei der PID die Menschenwürde in Gefahr. Einer der prominenten deutschen Vertreter der Bedenkenträger gegenüber neuen Technologien ist der Philosoph Jürgen Habermas. In seinem Buch „Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?“ bezeichnet die Anhänger des Trans- und des Posthumanismus als „ausgeflippte Intellektuelle“. Ihm selbst muss man allerdings bescheinigen, dass er hier über Dinge schreibt, von denen er nicht die geringste Ahnung hat.

Bei der Diskussion der ethischen Grundlagen neuer Technologien und ihrer gesetzlichen Regelung hat der Deutsche Ethikrat einen großen Einfluss. Er hat sich im letzten Jahr einen Namen gemacht mit der Empfehlung an den Bundestag, einem Gesetz zur Regelung der Genitalverstümmelung von Jungen zuzustimmen. Mit solchen Leuten, bei denen nicht die Verminderung sondern die Verherrlichung des Leids im Vordergrund steht und die einen Weg zurück ins Mittelalter beschreiten, werden wir die Zukunft nicht meistern können. Dennoch werden auch sie die Entwicklung nicht wirklich aufhalten können. Ray Kurzweil meint dazu, dass sich die neuen Technologien, wenn überhaupt, dann nur in totalitären Staaten aufhalten werden lassen. Wir werden diese zukünftigen Herausforderungen nur meistern, wenn wir ein wissenschaftsfundiertes Weltbild anerkennen und uns von einem metaphysischen bzw. religiösen Menschenbild endlich befreien.

Bernd Vowinkel

13. Juni 2013

Buchvorstellung: „Menschheit 2.0“

Filed under: eigene Artikel — Schlagwörter: — berndvo @ 07:14

EinladungKurzw

23. Oktober 2009

Der Aufbau einer Superzivilisation

Filed under: eigene Artikel — Schlagwörter: , — berndvo @ 08:30

 

 Von Bernd Vowinkel

 

Unsere Zivilisation ist im Vergleich zum Alter der Erde extrem jung. Wir wissen, dass es Vorläufer des jetzigen Menschen vor etwa 6 Millionen Jahre gab. Die letzte Stufe der Entwicklung des Menschen wurde vor etwa vierzigtausend bis sechzigtausend Jahren erreicht (neuere Schätzungen reichen bis 200 tausend Jahren). Die Erde existiert dagegen bereits seit ca. 4,5 Milliarden Jahren. Die Lebenserwartung unseres Planeten liegt bei weiteren, mehreren Milliarden Jahren. Wenn wir uns die rasante Entwicklung unserer Zivilisation nur innerhalb der letzten tausend Jahre vor Augen führen, so ist klar, dass wir erst am Beginn der Entwicklung unserer Zivilisation stehen. Wie diese Zivilisation in einigen Millionen oder gar Milliarden Jahren aussehen wird, kann letztlich niemand vorhersehen. Trotzdem können wir einige Abschätzungen über die maximal erreichbare Größe machen. Ein entscheidender Faktor wird hier die Frage sein, ob es Maschinen mit eigenem Bewusstsein geben wird. Niemand kann in die Zukunft sehen, insofern sind die folgenden Ausführungen spekulativ. Sie basieren aber auf den bekannten Naturgesetzen und setzen keine völlig neuen Technologien voraus.

 Zum Aufbau und zur Unterhaltung einer Zivilisation braucht man zwei Ressourcen, nämlich Materie zur Herstellung der „Hardware“ und Energie zur Herstellung und für den Betrieb der Hardware. Beides ist in unserem Sonnensystem reichlich vorhanden. Die kritischere von beiden Ressourcen ist aber die verfügbare Energie. Die Hauptenergiequelle in unserem Sonnensystem ist die Sonne selbst. Im Vergleich dazu sind alle anderen Energiequellen vernachlässigbar klein. Selbst wenn es auf der Erde einmal gelingen sollte, in großem Maßstab Energie durch Kernfusion zu erzeugen, so sind einfach die verfügbaren Mengen an Brennstoff winzig gegenüber dem Brennstoffvorrat der Sonne. In der Sonne selbst werden durch Kernfusion leichte Elemente zu schwereren Elementen umgewandelt. Im Prinzip funktioniert das unter Energiegewinn bis zum Element Eisen. Hier wird die größte Bindungsenergie pro Kernbaustein erreicht. Energie entsteht bei der Kernfusion letztlich durch Umwandlung von Materie der Masse m in Energie E nach der bekannten Einsteinschen Formel E = m c2 (c: Lichtgeschwindigkeit).

Nach der Größenordnung der Energie, die sich eine Zivilisation zu nutze macht, haben der russische Astronom Nikolai Kardaschew und später auch der britische Physiker Freeman Dyson die Zivilisationen in drei Stufen eingeteilt. Typ I macht sich die Energie eines Planeten zu nutze, d.h. die fossilen Brennstoffe, die Sonnenenergie, die auf der Planetenoberfläche verfügbar ist und die daraus abgeleiteten Energiequellen, wie Windkraft, Wasserkraft und Biomasse. Unsere gegenwärtige Zivilisation ist auf dem Weg zu diesem Typ. Typ II macht sich die gesamte Energie eines Sternes zu nutze. In unserem Fall hieße das, dass wir den größten Teil der von der Sonne abgestrahlten Energie verwenden. Schließlich wird bei Typ III die Energie einer ganzen Galaxie erschlossen. Man kann hier noch einen zusätzlichen Typ IV hinzufügen. Bei diesem Typ würde es nur noch eine Zivilisation geben, die konsequenterweise die verfügbare Energie des gesamten Universums nutzt. Da die Typen III  und IV noch in sehr weiter Ferne liegen, wollen wir uns hier zunächst nur mit dem Typ II etwas genauer befassen.

(more…)

29. Juli 2009

Unterschied Mensch-Maschine, oder: was ist der Mensch?

Filed under: eigene Artikel — Schlagwörter: , , , , , , — berndvo @ 07:36

der Artikel wurde überarbeitet. Die neue Version steht hier:

https://transhumanismus.wordpress.com/2017/06/14/ist-der-mensch-eine-maschine/

 

 

Die Frage was eine Maschine von einem Menschen unterscheidet, scheint trivial zu sein. Ein Mensch lebt, eine Maschine ist tote Materie. Ein Mensch besteht aus organischem Material, eine Maschine aus Plastik und Metall. Ein Mensch kann denken, hat Bewusstsein und hat Würde. Alles Dinge, die eine Maschine nicht hat. Alles das ist richtig – noch! Aber was ist, wenn unsere Computer und ihre Programme immer intelligenter werden, wenn sie womöglich Bewusstsein entwickeln? Können wir für immer ausschließen, dass Maschinen etwas völlig anderes sind als Menschen?

Hier ist im Folgenden der gescheiterte Versuch beschrieben, einen prinzipiellen Unterschied zwischen Mensch und Maschine herauszufinden, der für alle Zeiten Bestand hat. Die Thesen und deren Widerlegung sind:

1.) Menschen bestehen aus organischem Material, Maschinen bestehen aus anorganischem Material.

Hier stellt sich die Frage, ob das überhaupt ein Unterschied ist, der von Bedeutung ist. Davon abgesehen können wir inzwischen Menschen mit künstlichen Gliedmaßen, künstlichen Organen und sogar künstlichen Sinnesorganen (z.B. Cochlear-Implantate) ausstatten. Sind diese „reparierten“ Menschen noch Menschen? Ab welchem Anteil anorganischer Materie ist das nicht mehr der Fall? Auf der anderen Seite finden auch durchaus organische Materialien Anwendung bei Maschinen und sogar bei Computern. So werden bereits digitale Signalprozessoren auf DNA-Basis diskutiert. Silizium ist als Basismaterial für Computerchips nicht für alle Zeiten festgelegt. Für die Zukunft werden durchaus auch andere Materialien diskutiert, wie z.B. Galliumarsenid (GaAs), Indiumphosphit (InP), Nanoröhren aus reinem Kohlenstoff usw.

(more…)

Older Posts »

Erstelle eine kostenlose Website oder Blog – auf WordPress.com.