Blade Runner 2049, Black Mirror, Altered Carbon und co. – viele neue Serien und Filmproduktionen der letzten Jahre zeichnen die Zukunft als einen Ort der technologischen Dystopie. Das Bild ist oft ähnlich strukturiert: mächtige Autoritäten (wahlweise der Staat oder mächtige Unternehmen) haben durch stark fortgeschrittene Technologien die Möglichkeit, Menschen zu kontrollieren und zu missbrauchen. Dem entgegen steht die heroische Gegenseite, die dem fortschreitenden technologischen Missbrauch des Menschen entgegentritt und wieder die alten Verhältnisse herstellen möchte.

Durch solche Stories erlangte der Transhumanismus Bekanntheit. Allerdings verbinden nun viele das Konzept des Transhumanismus mit solchen dystopischen Horrorszenarien: Kontrolle des Menschen durch ausufernde Technologie; Chips und Substanzen in unserer Blutlaufbahn, mit der wir stets geortet werden können; künstliche Intelligenz, die uns dominiert und unsere gekannte Welt zerstört.

Und hat es nicht etwas unethisches, den Menschen immer weiter optimieren zu wollen? Gehört es nicht zur Essenz des Menschseins, unsere Einschränkungen – inklusive unseres Todes – als natürlich zu akzeptieren?

„Transhumanism is a class of philosophies of life that seek the continuation and acceleration of the evolution of intelligent life beyond its currently human form and human limitations by means of science and technology, guided by life-promoting principles and values.” – Philosoph und Futurologe Max Moore (1990)

Ich nutze diese weitläufig akzeptierte Definition des Transhumanismus als Basis meines Artikels.

Transhumanismus ist nicht gleichzusetzen mit blindem Technologieoptimismus

Es ist berechtigt, sich Sorgen über die Gefahren einer extrem leistungsfähigen künstlichen Intelligenz (KI) zu machen. Und ein solches Szenario ist zeitlich nicht so weit entfernt, wie einige glauben – laut aktuellen Umfragen der meisten bekannten KI-Wissenschaftler wird künstliche Intelligenz mit einer Medianwahrscheinlichkeit von 50% zwischen 2035 und 2050 die Intelligenz des Menschen erreichen – bezeichnet als Artificial General Intelligence (AGI) . Wenn dies eintritt, wird KI nicht nur in einzelnen, engen Bereichen wie Schach oder Go Menschen übertreffen, wie es heute bereits der Fall ist.

(Und interessanterweise: Im Dezember 2017 ist letzteres durch das Computerprogramm AlphaZero erstmalig ohne programmierte Zuege geschehen. Die KI hat sich das gesamte Konzept von Schach innerhalb von 4 Stunden selbst beigebracht. Diese Art des Selbstlernens mit mehrschichtigen neuronalen Netzen wird als Deep learning bezeichnet.)

Übersieht der Transhumanismus die Gefahren einer Intelligenz, die der menschlichen nicht nur ebenbürtig ist, sondern ab diesem Zeitpunkt durch eine Intelligenzexplosion möglicherweise um Dimensionen übersteigen wird? Dieses Szenario einer Intelligenzexplosion wurde bereits 1965 von dem englischen Mathematiker Irving Good formuliert:

„Lassen Sie uns eine ultraintelligente Maschine als eine Maschine definieren, die bei weitem jegliche intellektuelle Aktivität eines beliebigen Menschen übersteigt, wie intelligent dieser auch sein mag. Da der Entwurf von Maschinen zu diesen intelligenten Aktivitäten gehört, könnte eine ultraintelligente Maschine noch bessere Maschinen konstruieren. Dann gäbe es zweifellos eine Intelligenzexplosion, die menschliche Intelligenz weit hinter sich ließe. Deshalb ist die erste ultraintelligente Maschine die letzte Erfindung, die der Mensch je machen muss, vorausgesetzt, die Maschine ist fügsam genug, um uns zu sagen, wie man sie unter Kontrolle behält.“

Eine Entität mit so einer gewaltigen Intelligenz kann die Kontrolle über unsere Infrastrukturen, Medien und staatlichen Institutionen übernehmen. Diese Gefahren werden von Transhumanisten wie Nick Bostrom akzeptiert. Bostrom erlangte Bekanntheit durch seine expliziten Beschreibungen der Gefahren einer solchen Super-KI in seinem Buch Superintelligenz: Szenarien einer kommenden Revolution.

Allerdings wäre es voreilig, einen rigiden historischen Determinismus anzunehmen, laut der diese Szenarien zwangsläufig eintreten werden und wir daher KI völlig vermeiden sollten. Denn gerade in der aktuellen Entwicklungsphase kann die positive Ausrichtung von KI noch gesteuert werden. Mit seinem Unternehmen Neuralink setzt Elon Musk auf eben diesen Ansatz. Durch die Verbindung von  menschlichen Gehirnen mit KI-Systemen soll sicher gestellt werden, das letztere von Menschen kontrolliert werden und gute Absichten haben. (Genaueres kann in diesem Whitepaper nachgelesen werden.)

Neben ernstzunehmender Kritik weisen Transhumanisten allerdings auch auf das extrem positive Potential von KI-Technologie hin: Eine fortgeschrittende KI kann uns dabei helfen, bisher unheilbare Krankheiten wie Krebs zu heilen. Mehr noch, Transhumanisten argumentieren, dass diese Technologie nicht nur zur Heilung, sondern auch zur Optimierung des Menschen helfen kann. Viele haben das Ziel, ihre Intelligenz signifikant zu erweitern, jegliches unfreiwilliges Leid zu stoppen und ihre Lebensspanne unbegrenzt zu verlängern. Solche Ziele der Selbstoptimierung können sich durchaus mit einer gemäßigt-realistischen Sicht auf kommende Technologien verbinden.

 

Es ist nicht unethisch, den Menschen über seine natürlichen Beschränkungen hinaus optimieren zu wollen: Wir haben das schon immer gemacht!

Viele Argumente gegen eine starke Selbstoptimierung durch Technologie weisen direkt oder indirekt darauf hin, dass ein solche Veränderung des Menschen schlecht ist, weil es etwas Unnatürliches ist. Das ist häufig ein recht intuitives Argument: Die Vorstellung, dass die Natur des Menschen auf ungeahnte Weise verändert werden kann, fühlt sich schlecht an. Menschen sollten nicht die Macht haben, das Produkt von tausenden Jahren Evolution (oder wahlweise bzw. zusätzlich göttlicher Entwicklung) so fundamental zu verändern. Auch intuitive Argumente dieser Art haben ihre Berechtigung, wenn sie auf stichhaltigen Befürchtungen beruhen. Wenn man die Natur des Menschen als etwas Sakrosanktes und Unveränderbares ansieht, könnte man sich durch Szenarien wie unbegrenzter Lebenserweiterung gefährdet fühlen.

Allerdings ignoriert dieses Argument die Tatsache, dass wir den Menschen schon seit langer Zeit über seine natürlichen Grenzen durch Technologie optimieren. Zum einen gehören dazu medizinische Substanzen, die beispielsweise das Fortschreiten von Diabetes verhindern oder Praktiken wie die Chemotherapie zum Abtöten von Krebszellen. Darüber hinaus sind bereits heute die Körper vieler Menschen nicht vollständig organisch – Hüftprothesen sind besonders bei älteren Menschen keine Seltenheit mehr und die Zahl von allen möglichen, funktionellen Prothesen hat in der letzten Zeit durch das 3D-Printing stark zugenommen.

Optimierung des menschlichen Körpers durch Medizin und Technologie ist nichts Neues. Bis jetzt haben uns diese Errungenschaften nicht das Menschsein gekostet, oder spürbar den Wert der menschlichen Existenz negativ beeinflusst – im Gegenteil. Trotzdem steht es Menschen frei, diese Entwicklungen für sich nicht zu nutzen und in ihrem „natürlichen“ Zustand zu bleiben. Konkret: Der Verzicht auf Medikamente gegen Krankheiten wie Diabetes oder HIV, oder der Verzicht auf Technologien wie Gelenkprothesen.

Alle diese Errungenschaften wurden bis vor ein paar Jahrzehnten als neuartig oder revolutionär bezeichnet. Heute werden sie von dem Großteil der Menschheit gerne akzeptiert, um physisches Leid zu verringern. Gegner einer weiteren Optimierung des Menschen müssten erfolgreich argumentieren, wieso eine weitere Verbesserung im augenscheinlich bereits existierenden Prozess kontinuierlicher Verbesserungen plötzlich eine große Gefahr für das Menschsein darstellt.

Der Tod verleiht der menschlichen Existenz keine positive Bedeutung

Von einigen wird die Möglichkeit, das Leben unbegrenzt zu verlängern – und damit im Grunde nicht unfreiwillig sterben zu müssen – abgelehnt, weil es so der menschlichen Existenz ihre tiefere Bedeutung nehme. Damit ist gemeint, dass gerade die Endlichkeit des menschlichen Lebens Ansporn und Motivation verleihe, Ziele zu erreichen. Würde all das wegfallen, wären wir laut dieser Ansicht verdammt zu einer apathischen Existenz. Ohne konstantes Todesbewusststein (direkt oder indirekt), hätten wir keinen Ansporn, etwas zu erreichen – es wäre ja eine Ewigkeit dafür vorhanden. Gemeinsam mit diesem Argument wird häufig noch eingebracht, dass eine solche Existenz langweilig wäre. Irgendwann würden Dinge und Aktivitäten, die wir mögen, ihren Endzeitpunkt erreichen.

Dieses Argument ist nicht besonders überzeugend. Zu einem großen Teil beruht es auf Selbstprojektion – Befürworter sind sich sicher, dass eine zeitlich unbegrenzte Existenz Langeweile und Apathie für sie bedeuten würde. Aber: Ich bin mir sicher, dass das für mich nicht so wäre. Es gibt eine Vielzahl von Aktivitäten und Interessen, die ich gerne weiter verfolgen würde. Des Weiteren kamen bereits in den letzten Jahren viele neue Interessen hinzu und ich bin mir sicher, dass sich mein Drang, Neues zu entdecken, nicht erschöpfen wird. Das mag für andere nicht so sein – aber ich projiziere meine Persönlichkeit nicht als universelle menschliche Eigenschaften, im Gegensatz zu Anhängern der These, ein ewiges Leben bedeute zwangsläufig Langeweile.

Ich kann allerdings mit Sicherheit sagen, dass es neben mir einige Menschen gibt, die diese These aus denselben Gründen ablehnen. Daher wäre es unangebracht, diesen Menschen die Möglichkeit eines unbegrenzten Lebens zu entreißen, nur weil es nicht der eigenen Selbstprojektion entspricht.

Der Philosoph Ed Regis hat 1990 meine Ansichten dazu prägnant dargestellt:

  1. Das normale Leben ist ebenfalls langweilig. So what?
  2. Ewiges Leben wird so langweilig oder so interessant sein, wie du es gestaltest.
  3. Ist es interessanter, tot zu sein?
  4. Falls ewiges Leben langweilig wird, kannst du dich jederzeit umbringen.

Es ist völlig verständlich, dass sich Menschen Rationalisierungen für den Tod überlegen. Bis vor einigen Jahren war die Vorstellung, dass wir eventuell nicht sterben müssen, undenkbar. Wenn der eigene Tod ausweglos erscheint, kreieren Menschen normative Rechtfertigungen dafür, um die allgegenwärtige Angst vor dem Tod sanfter erscheinen zu lassen. Da es heute allerdings zumindest theoretisch die technologische Möglichkeit dazu gibt (uns allerdings noch die praktischen Entwicklungen dazu fehlen), ist das weitere Anklammern an eine solche Glorifizierung des Todes nicht mehr verständlich. Im Gegenteil fördert sie eine Attitüde der Hilflosigkeit und Passivität.

Befürworter des Todes sollten sich folgende Frage stellen:

Wenn es die Möglichkeit gäbe, den eigenen Tod zu verhindern, schmerzvolles Altern und Krankheiten zu eliminieren und wieder aktiv und energiereich zu werden – würdest du diese Möglichkeit ausschlagen? Würdest du dich lieber Krankheiten und dem Alter aussetzen und möglicherweise schmerzhaft sterben?

Ich vermute, die meisten Menschen würden in diesem Fall nicht passiv bleiben. Die meisten Menschen würden sich wahrscheinlich nicht für Alter, Krankheit, Schmerz und Tod entscheiden, hätten sie eine Wahl. Diejenigen, die sich dennoch dafür entscheiden, sollten natürlich sterben dürfen. Aber es erscheint mir unethisch, anderen Menschen diese transformative Möglichkeit durch Zwang vorzuenthalten.

Transhumanisten als blinde Technologieoptimisten ohne jegliche Bedenken darzustellen, ist eine Strohmann-Taktik. Viele Transhumanisten haben erhebliche Zeit damit aufgebracht, auf die Gefahren von Technologien wie KI hinzuweisen. Letztendlich haben Transhumanisten das Ziel, den bereits existierenden Prozess der kontinuierlichen Verbesserung menschlichen Lebens fortzuführen. Damit akzeptieren sie auch Krankheiten wie Krebs oder das Altern selbst nicht als Zwangsläufigkeit, genauso wie HIV oder gebrochene Gelenke in der jüngeren Vergangenheit nicht mehr als zwangsläufig betrachtet wurden.

Transhumanismus ist kein naiver Technologieoptimismus. Wir haben die menschliche Existenz schon immer technologisch verbessert – und der Transhumanismus möchte das in der Geschwindigkeit der aktuellen Technologieentwicklungen weiterführen.