Der Beitrag versucht, die in einem Pro-und-kontra-Schema gefangene Debatte um das Verhältnis zwischen Humanismus und Transhumanismus zu dekonstruieren durch Infokusnahme eben dieses Gegensatzes und seiner Voraussetzungen. Der Transhumanismus und seine Ideen sind insbesondere verstrickt in die durch die westliche Schriftkultur vorgegebenen Konditionen des Humanen. Damit schlagen die Einschränkungen der positivsprachlichen Einschreibungsweisen als Einschränkungen zurück auf die grundlegende Idee einer technologiebasierten selbstgesteuerten Weiterentwicklung der Menschen. Als möglicher Ausweg aus dem Dilemma der Selbstgefangenheit wird ein Rückgriff auf das Leibnizsche Projekt einer Universalsprache identifiziert, jetzt bereichert um eine neuere Reflexion der wissenschaftslogischen und philosophischen Randbedingungen der Konstruktion einer formalen Sprache, die widerspruchsfreie Beschreibungen komplexer Zusammenhänge nicht nur in den Lebenswissenschaften erlaubt. Dabei wird auch die interkulturelle und damit politische Dimension des Projekts Transhumanismus gestreift.
In einem Interview mit Nick Bostrom und David Pearce, den Gründern der World Transhumanist Association, einer nicht-kommerziellen Organisation mit der Zielsetzung, die menschlichen Fähigkeiten mittels Technologie zu verbessern, fasst der Interviewer Andrés Lomeña den Diskurs zur Begriffsbestimmung dessen, was Transhumanismus sei und bedeute, und die Kritik daran reichlich verkürzt zwischen zwei Polen zusammen, deren unterschiedliche Ansätze er als optimistisch und pessimistisch bzw. dystopisch bezeichnet (vgl. Bostrom, Pearce 2007). Optimistisch meint hier, dass der Mensch aus eigener Kraft als Homo technicus sich selbst und seine Umgebung – gewissermaßen jenseits der alle anderen Lebewesen betreffenden natürlichen Evolution – bewusst und zielgerichtet weiterentwickelt und optimiert. Unter den Adjektiven „pessimistisch“ und „dystopisch“ hingegen werden alle Positionen versammelt, die in den unter dem Titel Transhumanismus zusammengefassten Bestrebungen eine Gefahr sehen, angefangen von der Undurchführbarkeit über das Terminator-Argument, dass die Ängste vor Maschinenherrschaft bzw. der Überflüssigkeit des Menschen zum Ausdruck bringt, das Frankenstein-Argument der Unkontrollierbarkeit eines künstlichen Supermenschen bis hin zum ethisch-moralisch motivierten „Gott-spielen“-Argument. Als häufiger Kritikpunkt, oft als Vorwurf gegen transhumanistische Bestrebungen formuliert, wird im Zusammenhang mit dem „Gott-spielen“-Argument auch die „eschatologische Vision“ genannt (vgl. Bostrom, Pearce 2007). Damit unterstellen die Kritiker den Vertretern der optimistischen Sicht quasi-religiöse Züge. Des Weiteren zu bemerken ist, dass Lomeña der Struktur der Debatte um den Transhumanismus durch seine verkürzte Darstellung einen Dualismus gewissermaßen durch die Hintertür beschert.
Zum Zweck der Präzisierung und der Anschlussfähigkeit an andere, in ihrer Struktur sehr analoge Debatten der letzten drei Jahrzehnte wird daher vorgeschlagen, die beiden Positionsfelder deutlich aufzuweiten, zu öffnen, und mit den treffenderen Adjektiven „technikeuphorisch“ und „kulturpessimistisch“ zu belegen (vgl. Paul 2005). Denn die Frage nach dem Transhumanismus berührt zweifellos direkt die Frage nach der Technik des Menschen, nach unserer Technik, und eröffnet somit die Möglichkeit, das einfache duale Schema aufzubrechen bzw. zugunsten von Neuem zu verlassen.
Bereits 1951 schrieb der Semiotiker Max Bense zur anthropologischen und ontologischen Bedeutung der Technik in seinem Aufsatz Kybernetik oder Die Metatechnik einer Maschine: „Beide, Intelligenz und Welt, bedingen einander; und das ist ebenso ein kybernetischer wie auch ein anthropologischer Satz.“ Bense weist damit deutlich auf die Selbstrückbezüglichkeit bzw. die Möglichkeit der Selbstrückbezüglichkeit als eine Grundbedingung des Menschlichen hin. Sein Aufsatz endet mit der Formulierung eines Auftrags: „Der Mensch als technische Existenz: das scheint mir eine der großen Aufgaben einer philosophischen Anthropologie von morgen zu sein.“ (Bense 1999, S. 482f).
In der konkreten Debatte zur Provokation „Transhumanismus“ wäre damit – zunächst unter Rückgriff auf Bense – ein weiteres Mal die Frage nach der Technik aufzuwerfen, und zwar einer Philosophie der Technik, die jenseits der zwischen Kulturpessimismus und technischen Allmachtsphantasien verlaufenden Frontlinien das Grundverhältnis zwischen Konstrukteur und Konstruiertem, die wechselseitige Bedingtheit von Mensch und Technik und damit die Stellung des Menschen im Kosmos thematisiert. Diese Ebene hat die bisherige Debatte um den Transhumanismus jedoch noch nicht erreicht. Hier verharrt man wie oben gezeigt undialektisch im einfachen dualen Schema von pro und contra und ist nicht in der Lage, diese Gefangenschaft zu sehen, geschweige denn zu verlassen.
Die Verbesserung des Menschen und seiner Umgebung durch den Menschen selbst – vermittels der eigenen technischen Potenz – bis hin zur Vision der Überwindung des Todes, ist das zentrale Narrativ, gewissermaßen der Gründungsmythos des Transhumanismus.
In der Regel werden dabei jedoch zumindest drei weitere Kontexte oder Bereiche übersehen. Ein erster Bereich hat sich mit auf die conditio humana bezogenen Fragen zu befassen. Ein weiterer hat neben den methodisch-philosophischen auch politische und politikhistorische sowie interkulturelle Implikationen zu berücksichtigen. Das in alle drei Bereiche hineinspielende Methodisch-Philosophische gewinnt noch einmal eine besondere Bedeutung, wenn im dritten Bereich theoretische Einschreibungsweisen zu diskutieren sind. Alle drei Kontexte liefern signifikante Beiträge, das oben genannte dichotome Positionsschema gewissermaßen zu transformieren. Denn eine Reflexion des dichotomen Schemas ist unmöglich, wenn innerhalb des Schemas verblieben wird. Aus diesem Grund muss methodisch eine weitere zu leistende Denkbewegung eingefordert werden, die sich deutlich jenseits dieser Dichotomie von Technikeuphorie und Kulturpessimismus bewegt bzw. diese selbst mit in die Behandlung des Themas hinein nimmt. Eine solche Denkbewegung muss daher eine doppelte sein, um den Anforderungen einer sinnvollen Dekonstruktion der Fragestellung genüge zu leisten. Sie wendet sich einerseits kritisch gegen die Gefangenschaft im dichotomen Schema und andererseits sowohl gegen den Technikskeptizismus eines Günther Anders – der Mensch wird nebengeschichtlich –, und den Heidegger’schen Vorwurf der Seinsvergessenheit gegenüber Wissenschaft und Technologie, als auch gegen kritiklose Phantasmen der technologischen Mach(t)barkeit.
Darüber hinaus schließen die schon als Ziel gefassten Begriffe der Weiterentwicklung und Optimierung weitere Fragen mit ein, die die Fragenkontexte bereichern: Warum? Damit ist die Frage nach dem bzw. einem Zweck gestellt. In welche Richtung? Unter der Vorab-Annahme des technisch Machbaren muss gefragt werden: Wie groß und wie beschaffen ist eigentlich der Möglichkeitsraum der Richtungen? Optimierung? Nach welchen Kriterien? Wer fällt Entscheidungen über wen? Das heißt, wie verhalten sich die Subjekte, die Designierenden und die Objekte, die Designate der Entscheidungen? Jeweils zu sich selbst, also selbstreferentiell, sowie zueinander, also heteroreferentiell? Denn die Selbstanwendung menschlicher Technologie durch den Menschen auf den Menschen verändert zwangsläufig die Selbstverhältnisse sowie die Fremdverhältnisse des Menschen.
Gerade zur Zeit besteht der berechtigte Verdacht, dass mit „Kriterien der Optimierung“ vornehmlich ökonomische gemeint sein können, denn die Dominanz des orthodox ökonomischen Denkens ist weltweit allgegenwärtig und krisenhaft. Insofern ist „Optimierung“ schon zu kritisieren als ein von vornherein dem Verdacht eines Ideologie-unterworfenen Zwecks ausgesetzter Begriff. Ob er sich davon durch andere Interpretationen befreien lässt, scheint fraglich.
Evolutionsprozessen hingegen – auch denen des Menschen – als Prozessen der Natur kann eine ganz prinzipielle Zweckfreiheit unterstellt werden. Zuletzt ist es der Philosoph Jean-Luc Nancy, der auf die „Zwecklosigkeit der Zwecke“ hinweist, die am Anfang aller unserer Technik steht (vgl. Nancy 2008; 2011). Oder anders gewendet: Die Zweckfreiheit in der Evolution des Menschen ist der Zweck der Freiheit.
Seit Paul Alsberg wissen wir zudem um eine weitere Möglichkeit unseres Blicks auf die techné. Der Arzt und Anthropologe führt in seinem 1922 erstmals erschienenen Werk Das Menschheitsrätsel den Begriff der Körperausschaltung ein und liefert damit neben Anpassung einen notwendigen zweiten Begriff, mit dessen Hilfe nun an eine Weichenstellung innerhalb der menschlichen Evolution gedacht werden kann (vgl. Alsberg 1922/1979). Sein gedankliches Konzept kann erfolgreich gegen die im 20. Jahrhundert sehr populäre und dominante Auffassung gewendet werden, die Technik in erster Linie als Mittel des Menschen sieht, einen Anpassungsmangel – und damit einen Zweck – gegenüber den optimal an ihre Umgebung angepassten Tieren zu kompensieren (vgl. Gehlen 1940).
Für die conditio humana ist festzuhalten, dass der Mensch im Rahmen des Humanen als sterbliches Wesen bestimmt ist. Wenn Transhumanismus nun naheliegenderweise das Ziel hat, eine Position zu entwickeln, die diese Bestimmung übersteigen soll, die neben Verbesserung sogar die Nicht- oder Unsterblichkeit adressiert, dann ergibt sich für die Dichotomie vom Leben und Sterben des Menschen eine Paradoxie „insofern, als es weder dem Humanismus, der seine Kraft aus der Vergangenheit schöpft, noch dem Transhumanismus, der sich seiner Zukunft sicher wähnt, gelungen ist, zu bestimmen, was Leben und damit Sterben für den Menschen überhaupt bedeuten“ (Kaehr 2010a). In dieser Aussage des Philosophen und Logikers Rudolf Kaehr wird auf die ganz prinzipielle und nicht nur dem Zeitgeist geschuldete Verdrängung des Begriffs der Bedeutung hingewiesen und die Situation des Unfertigen, des nicht Abgeschlossenen thematisiert, in dem Sinne, dass der Humanismus seinen selbst gestellten Anspruch der Bestimmung des Menschen bislang nicht erfüllt hat, nicht vollständig erfüllen konnte.
Ganz analog kritisiert Stephen Toulmin in seiner Kosmopolis die unerkannten und daher nicht gelösten Aufgaben der Moderne und gelangt zu der Schlussfolgerung, dass es einer neuen Humanisierung der Moderne bedarf. Seiner Auffassung nach „können wir uns weder an die Moderne in ihrer historischen Form klammern noch sie völlig ablehnen – und gewiss nicht verachten.“ Aufgabe sei es „vielmehr, unsere ererbte Moderne zu reformieren, ja richtig wiederherzustellen, indem wir sie humanisieren. Das ist keine leere Mahnung“ (Toulmin 1994, S. 288f). Eine Mahnung zu einer Re-Humanisierung also. Ganz offensichtlich stünde eine solche Rehumanisierung vor strukturell identischen Problemen wie eine Transhumanisierung. Der Humanismus und dessen unerfüllter Anspruch verkörpert selbst das Dilemma, unter dem sich eben auch die Fragen nach Re- und Transhumanisierung versammeln.
Damit ist der Vollständigkeit halber des Weiteren für die politische Dimension unbedingt zu erwähnen, dass der Humanismus einen ideologischen Hegemonieanspruch des Westens darstellt bzw. sich als ein solcher interpretieren lässt. Insofern ist die Frage berechtigt, ob – und wenn ja – was dieser Umstand für eine Bedeutung für den Transhumanismus und seine Ansätze haben könnte. Die dialektische Verschränkung von Identität und Differenz – Identität und Differenz bedingen einander – bildet das Grundmuster, über das die Selbsterfahrung des einzelnen Ich erst möglich wird, d.h. in einer Konkretheit des Beziehungsgeflechts zwischen uns Menschen. Hier bewegen wir uns mitten im politischen Raum, in dem wir „das Wir“ antreffen und damit die dynamischen Relationenfelder zwischen uns Menschen und Menschengruppen. Der Humanismus hingegen lässt diese Konkretheit vermissen, er setzt auf das abstrakte Prinzip Menschheit, auf eine quasi statische, von alten männlichen weißen Europäern des 19. Jahrhunderts konstruierte überhistorische Norm, von der aus das Wesen des Menschen bestimmbar sei. Als Momentaufnahme markiert der Humanismus somit den – nicht abgeschlossenen – Abschluss einer historischen Entwicklung, an dessen logischem Ende ein Vorschlag für ein allgemein verbindliches ethisches Wertesystem steht. Zukünftigen Entwicklungen und Entfaltungen ist damit jedoch der Raum genommen. Der Humanismus mit seinem Anspruch, als denkerisches Metasystem über den Entwicklungen zu stehen, erweist sich als nicht mehr geschichtsfähig und damit nicht zukunftsfähig. Wird der Humanismus als Fanal der Freiheit zur Entfaltung des jeweils einzelnen menschlichen Individuums interpretiert, löst er sich sogleich auf in einem Selbstwiderspruch. Auch neuere, als evolutionärer Humanismus bezeichnete Überlegungen ändern hieran nichts, denn eine Redynamisierung eines prinzipiell statischen Konzepts ist wenig mehr als Augenwischerei, sie verändert oder erweitert das Konzept als solches nicht (vgl. Paul 2013a). Der Humanismus kann die Konkretheit des Wir nicht kennen, die gerade aktuell durch das weltumspannende elektromagnetische Feld des Internet eine Entbindung von unserer biologisch bedingten optischen und akustischen Kommunikationsreichweite und damit eine völlig neue Qualität erfährt.
Der tiefere Grund liegt in der Konstruktion des Humanismus auf der Basis der strukturarmen klassischen Ontologie, die nur das einzelne Subjekt und die Welt kennt, jedoch nicht das Du und damit auch nicht die Verbindung von Ich und Du, das Wir. Vilém Flusser löst dies humoristisch auf, indem er dem Humanisten folgenden Satz in den Mund legt: „Ich liebe die ganze Menschheit, es sind die Leut’, die mir auf die Nerven gehen!“ (Flusser 1999)
Dies soll hier jedoch nicht weiter verfolgt werden, da dieser Aspekt zweifellos eine ganz eigene detaillierte politologische und politikhistorische Analyse wert ist. Dennoch wird darauf zurückzukommen sein.
Darüber hinaus ist für den Raum der Einschreibungsweisen festzuhalten, dass sowohl die Theorien des Trans- und Posthumanismus als natürlich auch der Humanismus sich weiterhin als verstrickt in die Konditionen des Humanen erweisen, so wie sie durch die westliche Schriftkultur vorgegeben sind. Damit ist eine Einschreibungsweise vorbestimmt, die ganz allgemein Erörterungen aller Art in positivsprachliche Konzeptionen zwingt. Schon durch die auf den Axiomen der zweiwertigen Aristotelischen Logik basierende basale Trennung zwischen Signifikant und Signifikat, zwischen Designierendem und Designat, Operator und Operand, ist eine grundlegende hierarchische Struktur vorgegeben, die eine irreduzible Darstellung von Simultaneität und Parallelität ganz prinzipiell verunmöglicht und in die hierarchische Struktur der Sequenz, des Vorher und Nachher, der Linearität, der Linie zwingt. Erörterungen von Möglichkeitsräumen sowie die Erzeugung von Neuem sind hier verwehrt.
Dies ist nicht intuitiv und unmittelbar einzusehen, da unser Denken allzu sehr in Kausalitätsketten verhaftet ist. Zur Verdeutlichung der Problemstellung mag ein stark vereinfachter Zusammenhang aus der Biochemie der Lebensprozesse dienen. Die Erbsubstanz DNA dient der Information für die Synthese von Proteinen aus den Aminosäuren. Es lässt sich also sagen, dass die DNA einen Operator repräsentiert, der auf die Aminosäuren als Operanden prozesshaft einwirkt, so dass am Ende der Kette Eiweiße herauskommen. Umgekehrt wissen wir aber um die Möglichkeit der Reparatur des Genoms, etwa bei Schädigungen. Der Mechanismus des Gene-repair seinerseits besteht aus einem Einwirken von Proteinen auf die DNA-Sequenzen. Das Operator-Operanden-Verhältnis ist hier genau umgedreht. Es gibt nun kein formal widerspruchsfreies Operator-Operanden-Modell, dass diese Vertauschung erlaubt bzw. das den Gesamtzusammenhang zwischen Genom und Proteinen umfassend beschreiben kann.
Ein gutes Beispiel für die Gefangenschaft des Denkens innerhalb dichotomer hierarchischer Strukturen ist die unter Transhumanisten diskutierte Idee des Transfer-Uploading. Unter Upload wird die Absicht verstanden, Geist oder Mind als die aktuellen Prozessdaten eines menschlichen Gehirns oder Nervensystems in toto auf eine z.B. siliziumbasierte Maschine zu übertragen unter Erhaltung der Identität der Person. Hier setzt man sich gleich drei Denkfallen aus.
Zunächst hierzu Nick Bostrom: „Ich denke, dass beim Uploading unter den richtigen Voraussetzungen sowohl das Bewusstsein als auch die persönliche Identität erhalten werden können. Aber ich würde mich nicht als Dualisten bezeichnen. Ich denke, dass mein Geist derzeit auf einer Art Proteincomputer läuft. Wenn exakt die gleichen Prozesse auf einem Silikoncomputer ablaufen würden, könnte ich vermutlich überhaupt keinen Unterschied feststellen“ (Bostrom, Pearce 2007).
Denkfalle Dualismus: Bostrom würde sich nicht als Dualisten bezeichnen, jedoch das hier Gesagte weist ihn exakt als einen solchen aus, denn im Moment des Uploads auf die Maschine, im Moment der Übertragung wird schon zwischen dem alten Carrier, dem Körper, und dem neuen, dem Siliziumcomputer auf der einen sowie dem zu Übertragenden auf der anderen Seite getrennt. Das ist präzise der alte Leib-Seele- oder Geist-Körper-Dualismus durch die Hintertür, dieses Mal im Gewand von Software und Hardware. Die auch von Transhumanisten erklärtermaßen bevorzugte Idee des Materialismus ist hier nicht exakt durchgeführt, sondern verstrickt sich im Widerspruch. Zudem werden Identität und Materialität apriori voneinander separiert.
Denkfalle Digitalismus: Es ist von Siliziumcomputern die Rede, Maschinen also, die Analoges in digitale Codes übersetzen. Damit setzen sich die Autoren implizit dem Digitalismusvorwurf aus. Der Digitalismus als philosophische Schule, „digital philosophy“, deren prominenteste Vertreter die US-Amerikaner Gregory Chaitin, Rudy Rucker, Edward Fredkin und Stephen Wolfram sowie Konrad Zuse sind, postuliert, dass das Universum als ein gigantischer Turing-vollständiger zellulärer Automat verstanden bzw. beschrieben werden kann. Dies ist unter verschiedenen theoretischen Gesichtspunkten schwerlich haltbar, Fredkins Ansatz (vgl. Fredkin 1992) führt zu Widersprüchen gegenüber Einsteins allgemeiner Relativitätstheorie, die eine rein analoge Theorie ist, und Wolframs Ansatz benötigt sogenannte „weird universes“ (vgl. Wolfram 2002, Kap. 9). Dies soll hier aber nicht weiter ausgeführt werden.
Für die Diskussion transhumanistischer Ansätze ist insbesondere eine informationstheoretische Betrachtung interessant, da sie tatsächlich mit Digitalem auskommt und schon dort zu Widersprüchen führt. Im Rückgriff auf die Hermeneutik Heideggers kritisierte Hubert Dreyfus in „Cybernetics as the Last State of Metaphysics“ bereits 1968 Marvin Minskys Statement „There is no reason to suppose machines have any limitations not shared by men“, indem er auf einen infiniten Regress bzw. einen circulus vitiosus hinwies (vgl. Dreyfus 1968; Kaehr 1980). Dreyfus’ Argumentationsgang kann wie folgt nachgezeichnet werden:
Nehmen wir an, dass unsere Welt aus einer indefiniten Mannigfaltigkeit von Informationseinheiten – also Bits – besteht, dann müssen auch Entscheidungen bzw. Kontexte anerkannt werden, die angeben, welche Informationen, welche Bits für bestimmte Berechnungen wichtig sind und welche nicht. Wird dies akzeptiert, dann besteht die Welt eben nicht mehr homogen nur aus Informationen, sondern auch aus Kontexten von Informationen. Dies steht im Widerspruch zur Ausgangsannahme. Wird jedoch nun der Kontext selbst zur Information erklärt, so entsteht der Zirkelbezug, dass alles, was eine Information bestimmen soll, selbst wieder Information ist. Dies ist aber das Problem des Verhältnisses von Information und Bedeutung. Nach dem klassischen Paradigma wird nun Bedeutung auf Information reduziert, wodurch eine Binnenstruktur der Kontexte in sich zusammen fällt. Wiederum Kaehr wies deutlich darauf hin, dass jedoch „das transklassische Paradigma … auf der Irreduzibilität von Information und Bedeutung besteht.“ (Kaehr 1989) D.h. es gibt eine nichtklassische Forderung der Aufrechterhaltung der Kontexte, wonach das Eine nicht auf das Andere zurückführbar ist. Soweit zum Verhältnis von Transklassik und Digitalismus (vgl. Paul 2013b).
Denkfalle Ortsinvarianz der Identität der Person: Diese dritte Denkfalle steht in mittelbarem Zusammenhang mit der zweiten und in unmittelbarem mit der ersten Denkfalle, mit der Frage nach Identität und Materialität des Menschen, sie kann jedoch separat diskutiert und verstanden werden. Im obigen Statement von Bostrom wird implizit ohne jedes Nachfragen angenommen, dass die Identität einer Person unabhängig von ihrem Ort in der Raumzeit sei. Denn eine Übertragung, ein Upload des Selbst vom biologischen Körper auf einen Siliziumcomputer bedeutet ja auch einen Ortswechsel. Nun ist Ort, Örtlichkeit etwas, das im linearen Denken nur allzu leicht vernachlässigt wird, da gerade in der Physik recht häufig mit Ortsinvarianzen gerechnet wird. Und im Bereich der Computer ist es eine Selbstverständlichkeit, denn dem in Software gefassten Code ist es „egal“, auf welcher Hardware er abläuft. Verstehen wir ohne Rückgriff auf einen Dualismus die Identität einer Person als Eigenschaft oder Resultat der Physiologie eines bestimmten biologischen Körpers, dann ist es aber nicht selbstverständlich, davon zu abstrahieren. Diverse Untersuchungen haben gezeigt, dass ganz generell Individualität und damit Prozessidentität von Lebewesen bis „hinunter“ auf die physiologische Ebene reicht (vgl. Williams 1979).
Argumentationshilfen dazu könnten interessanterweise nicht nur aus der Biologie, sondern auch aus der hardwarenahen Informatik selbst kommen. Vor einiger Zeit stellte sich heraus, dass der von Leon Chua bereits 1971 geforderte vierte passive elektronische Baustein, der sog. Memristor (Chua 1971), technisch realisierbar ist. Der Memristor kann als geschichtsabhängiger elektrischer Widerstand verstanden werden, er „erinnert“ sich an den Strom, der zuletzt durch ihn geflossen ist. Entwickler von Hewlett Packard sprechen nun zwar davon, dass bislang „Lernen“ nur über Software simulierbar war, es aber mit dem Memristor möglich sein soll, dass nun die Hardware selbst lernt. Dass damit aber ein Problem der Lokalisierung innerhalb der Hardware auftaucht, wurde noch nicht erkannt.
Jedoch wies Kaehr darauf hin, dass die „Materialität des Lernens“ ihre eigene Raum-Zeit-Struktur impliziere. Denn jedes Verhaltensmuster wie z.B. eine logische Operation in einem solchen System ist dann auch gekennzeichnet durch den Platz im System, den es einnimmt. Insofern sind die strukturellen Gesetze durch die „memristive Materie“ gegeben und nicht etwa durch ein Programm eines theoretischen formalen Systems „von außen“ (vgl. Kaehr 2010b, S. 6).
Nach der Betrachtung der vorderhändigen Problemstellungen und Denkfallen ist nun zurückzukommen auf das Beschreibungsproblem und damit auf die etablierte Einschreibungsweise, so wie sie in der westlichen Schriftkultur entwickelt wurde. In diesem Zusammenhang zwar implizit, aber noch nicht explizit in der Argumentation aufgetaucht ist das zentrale Problem der Selbstreferenz und ihrer formalen Beschreibung. Es wurde gesagt, dass die basale Unterscheidung zwischen Designierendem und Designat, zwischen Signifikant und Signifikat qua Struktur in die Heteroreferenz und darüber hinaus in die Hierarchie der Sequenz, der Linie führt. Es erschließt sich unmittelbar, dass heteroreferentiell operierende Systeme/Kalküle zu einer formal korrekten Behandlung von Selbstreferenz nicht geeignet sind. Damit ist selbst die klassische Logik hinfällig. Zur Rechtfertigung dieser Fragestellung gibt es eine ganze Reihe von Indizien aus verschiedensten Wissenschaften (vgl. Paul 2013c, S. 379ff). Stellvertretend sei hier der theoretische Physiker Walter M. Elsasser genannt, der speziell auf das bislang nicht behandelbare wissenschaftslogische Problem der formalen Unterscheidbarkeit von Gleichheit und Selbigkeit – das Problem von Ort und Identität in anderem sprachlichen Gewand – in der Biologie in seinem Aufsatz A Form of Logic Suited for Biology hinwies (vgl. Elsasser 1981). Zu Lösungsansätzen lohnt eine Beschäftigung mit den umfangreichen Werken der Philosophen und Logiker Gotthard Günther und Rudolf Kaehr zum Thema Polykontexturalität, die sich allerdings einer detaillierten Behandlung in nur einem Aufsatz erfolgreich widersetzen.
Aus der neueren französischen Philosophie ist es neben dem „wilden Denker“ Deleuze vor allem Jacques Derrida, der mit einer ganz eigenen Sicht zu Serialität und Linie und ihrem Verhältnis zur Erkenntnis aufwartet und weitere Hinweise auf eine Strategie des Vorgehens auch zum Problem des Transhumanismus erlaubt: „Das rätselhafte Modell der Linie ist also gerade das, was die Philosophie, als sie ihren Blick auf das Innere ihrer eigenen Geschichte gerichtet hielt, nicht sehen konnte. Diese Nacht hellt sich in dem Augenblick ein wenig auf, wo die Linearität – die nicht der Verlust noch die Abwesenheit, sondern die Verdrängung des mehrdimensionalen symbolischen Denkens ist – ihre Unterdrückung lockert, weil sie allmählich die lange Zeit von ihr begünstigte technische und wissenschaftliche Ökonomie zu sterilisieren beginnt“ (Derrida 1974, S. 153).
Das Gegenteil von Sterilität ist Fruchtbarkeit, das von Verdrängung Entbergung. Es geht also, folgen wir Derrida, um nicht mehr und nicht weniger als die Emanzipation von Wissen und Wissenschaft. Wäre das ein Weg zu einem Transhumanismus? Wie können wir dorthin gelangen?
Auf einen möglichen Zugang weist uns schon Ernst Cassirer hin: „Was die Loslösung des theoretischen Denkens von dem Untergrund des mythischen Bewusstseins erschwert…, ist die Abhängigkeit, in der es sich von der Sprache befindet… Seine volle Autonomie erlangt das theoretische Denken erst dann, wenn es sich entschließt, den letzten Schritt zu tun; wenn es sich in den Symbolen der Mathematik statt der ‚natürlichen‘ Sprache eine ‚künstliche‘ Sprache erschafft. Die natürliche Sprache bleibt immer wie mit unsichtbaren Fäden mit der mythischen Denk- und Vorstellungsart verknüpft“ (Cassirer 1939, S. 88).
Cassirer macht hier auch überdeutlich, dass es mit der Konstruktion einer Kunstsprache nicht um eine Entdeckung oder einen Existenzbeweis geht, sondern vielmehr um eine Willensentscheidung, um ein Entschließen, wenn man so will, um einen kreativen Akt. Die unmittelbare Assoziation hierzu ist die Leibniz’sche Konzeption einer characteristica universalis. Aber schon Leibniz erkannte unter dem Einfluß seiner Beschäftigung mit der chinesischen Kultur, dass „der Rechenformalismus nur die äußere Seite einer viel tiefer gehenden Weltauslegung ist“ (Holz 1997, S. 122). Als Analytiker von Format kommt Leibniz zu dem Schluss, dass „über das rein zerlegende Denken […] die Einsicht in den Zusammenhang einer Lebensganzheit“ zu setzen ist, „die allein mit den Mitteln der Analyse nicht zu erfassen ist. Dialektisch denken (wie wir heute sagen) heißt für ihn: die lebendige Ganzheit der Natur als Wirkungszusammenhang einsehen“ (Holz 2013, S. 32f).
Zu den Ermöglichungsbedingungen der Beschreibung solcher Wirkungszusammenhänge gehört aber notwendig die Option des Neuen, die in den positivsprachlichen Einschreibungsweisen der westlichen Schriftkultur aus ganz prinzipiellen Gründen nicht enthalten sein kann. Mit dem Mathematiker Engelbert Kronthaler (1986) ist zu sagen, dass in der technikorientierten westlichen Zivilisation „hauptsächlich nur ein Aspekt gesehen“ wird, der der „Wiederholung als Wiederkehr des ewig Gleichen“, der Aspekt der Iteration. Jenseits davon gibt es aber noch einen zweiten oft vernachlässigten Aspekt, den der Akkretion oder der Wiederholung des Neuen, dessen erste Ansätze in der zweiten Negation Hegels zu finden sind und die Gotthard Günther zum Anlass nahm, daraus einen Formalismus abzuheben.
Mit der Referenz auf die Leibniz’sche characteristica universalis und ihre Ermöglichungs-bedingungen ist parallel auch der Bogen zurück ins Politische geschlagen, denn: „Darin besteht heute in einer Welt, die ökonomisch, verkehrstechnisch und weltpolitisch zu einer eng vernetzten Einheit zusammengewachsen ist, die Aktualität des Leibnizschen Universalismus. Wir müssen lernen, aus verschiedenen Ursprüngen gewachsene Kulturen ineinander übersetzbar – oder genauer: aufeinander abbildbar – zu machen, gerade auch dann, wenn wir sie in ihrer Besonderheit nicht nivellieren, sondern ihre Vielfalt als den geistigen Reichtum unserer Welt erhalten wollen“ (Holz 1997, S. 122).
Der Beginn einer planetaren Zivilisation – mit anderen Worten der Geschichte der Menschheit als eines Ganzen – fiele also mit dem ersten Abschluss der Konstruktion einer Kunstsprache zusammen, die nicht ausschließlich dem hierarchischen Gesetz der Serie verpflichtet ist. Denn dieses reicht, wie schon gezeigt, strukturell nicht aus. Und diese Sprache sollte in der Lage sein, strenges Denken, wie es Heidegger nennt, gleichzeitig exaktes Denken sein zu lassen. Bislang kennen wir nur das exakte Denken der Mathematik und der Naturwissenschaften, das jedoch nicht streng ist, im Gegensatz zu philosophischem Denken, das aber, wie Gotthard Günther es ausdrückt, zu früh von der Exaktheit dispensiert (vgl. Günther 1978, S. 170).
Die Konstruktion einer solchen Kunstsprache setzt jedoch als Basis ein Vordringen mit dem Tastsinn des Geistes in den Raum des Nicht- oder Vorsprachlichen voraus, in jene Räume, in denen Sprache verstummt. Hierzu bedarf es des Auslotens von Möglichkeitsräumen. Dies leisten nach Kenntnis des Verfassers bislang nur die Günther/Kaehr’schen Konzeptionen von Polykontexturalität, Kenogrammatik und Negativsprache (vgl. Günther 1973, 1979; Kaehr 2001), als konkludente Fortsetzung des Leibniz’schen Vorhabens und als notwendige Bedingung für eine – diesmal konstruktive – Inangriffnahme des Projekts Transhumanismus.
***
Rethinking Leibniz – Transhumanismus in der Dekonstruktion
in: Kluge, Sven; Lohmann, Ingrid; Steffens, Gerd (Red.) –
Jahrbuch für Pädagogik 2014
– Menschenverbesserung
– Transhumanismus,
Jahrbuch für Pädagogik (Band 29), Verlag Peter Lang, Frankfurt a.M., Berlin, Bern, Bruxelles, New York, Oxford, Wien, 2014.
393 S., S. 191-204
Weiterführend →
Lesen Sie auch das Porträt von Joachim Paul → Ein Pirat entert das Denken
Literatur
Alsberg, Paul: Der Ausbruch aus dem Gefängnis. Zu den Entstehungsbedingungen des Menschen. In: Das Menschheitsrätsel. (1922) Bearb. Neuaufl., hrsg. von Dieter Claessens, Gießen 1979.
Bense, Max: Kybernetik oder Die Metatechnik einer Maschine. (1951) In: Pias, Claus, et al.: Kursbuch Medienkultur, Stuttgart 1999, S. 472-484.
Bostrom, Nick; David Pearce: Interview von Andrés Lomeña, 2007, http://www.hedweb.com/transhumanism/deutsche.html.
Cassirer, Ernst: Axel Hägerström. Eine Studie zur schwedischen Philosophie der Gegenwart, Göteborgs Högskolas Årsskrift XLV (1939) 1.
Chua, Leon O.: Memristor – The Missing Circuit Element; IEEE Transactions on Circuit Theory, Vol. ct-18 (1971) 5, S. 507-519; http://ieee-ghn.org/wiki/images/b/bd/Memristor_chua_article.pdf.
Derrida, Jacques: Grammatologie. Frankfurt a. M., 1974.
Elsasser, Walter M.: A Form of Logic Suited for Biology. In: Progress in Theoretical Biology, Ed. Rosen, Robert; Vol 6 (1981), S. 23-62, http://www.vordenker.de/elsasser/we_logic-biol.pdf.
Flusser, Vilém: Die Informationsgesellschaft, Phantom oder Realität? Vortrag auf der CulTec, Essen, 23.11.1991, Köln 1999, timecode 00:40:00ff.
Fredkin, Edward: Finite Nature. Proceedings of the XXVIIth Rencotre de Moriond (1992).
Gehlen, Arnold: Der Mensch. Seine Natur und seine Stellung in der Welt. Berlin 1940.
Günther, Gotthard: ‚Life as Poly-Contexturality‘, in: H. Fahrenbach (Hrsg): Wirklichkeit und Reflexion, Festschrift für Walter Schulz. Pfullingen 1973, S. 187-210. Abgedruckt in: Günther, Gotthard; Beiträge zur Grundlegung einer operationsfähigen Dialektik, Bd. 2, Hamburg 1979, S. 283-306, http://www.vordenker.de/gg- philosophy/gg_life_as_polycontexturality.pdf.
Günther, Gotthard: Idee und Grundriß einer nicht-Aristotelischen Logik, 2. Aufl. Meiner, Hamburg 1978.
Günther, Gotthard: Identität, Gegenidentität und Negativsprache, Vortrag, Int. Hegel-Kongress, Belgrad 1979, Hegeljahrbücher 1979, S.. 22-88, http://www.vordenker.de/gg-philosophy/gunther_identitaet.pdf.
Holz, Hans-Heinz: Characteristica universalis und Yijing in metaphysischer Perspektive. In: Wenchao Li & Hans Poser (Hrsg.): Das Neueste über China: G.W. Leibnizens Novissima Sinica von 1697; Int. Symp, Berlin, 4.-7.10.1997, S. 105-124.
Holz, Hans-Heinz: Leibniz. Das Lebenswerk eines Universalgelehrten. Hrsg. von Jörg Zimmer, Darmstadt 2013.
Kaehr, Rudolf: Neue Tendenzen in der KI-Forschung. Metakritische Untersuchungen über den Stellenwert der Logik in der neueren Künstlichen-Intelligenz-Forschung, Stiftung Warentest, 1980, online: http://www.vordenker.de/ggphilosophy/rk_meta.pdf.
Kaehr, Rudolf: SUFI’S DRAI: Wozu Diskontexturalitäten in der AI? ÖGAI-Journal (Tagung der Österreichischen Gesellschaft für Künstliche Intelligenz) Bd. 8, Wien 1989, S. 31-38, http://www.vordenker.de/sufi/sufi.htm.
Kaehr, Rudolf: Skizze eines Gewebes rechnender Räume in denkender Leere. Glasgow 2001, http://www.thinkartlab.com/pkl/media/SKIZZE-0.9.5-Prop-book.pdf.
Kaehr, Rudolf: Memristik. Zur Technologie des Posthumanen? Ankündigungstext zur Keynote auf der Tagung der HfG Karlsruhe „Was wird Denken heißen?“ – Kognition und Psyche im Posthumanen Zeitalter,16.-18.07.2010 (a), http://www.hfg-karlsruhe.de/Memristik.
Kaehr, Rudolf: Memristics: Why memristors won’t change anything. Remarks to Todd Hoff’s „How will memristors change everything?“ Glasgow 2010 (b); http://memristors.memristics.com/Why-Not/Why-Not.pdf.
Kronthaler, Engelbert: Grundlegung einer Mathematik der Qualitäten – Zahl, Zeichen, Spur, Tao. Bern, New York 1986.
Nancy, Jean-Luc: Destruktion als Erinnerung oder Struktion der Techné, Vortrag am Bochumer Kolloquium Medienwissenschaften, 08.12.2008, http://www.ruhr-uni-bochum.de/bkm/archivseiten/12_nancy.html, Video timecode 01:15:00ff.
Nancy, Jean-Luc: Von der Struktion. In: Erich Hörl (Hrsg.), Die technologische Bedingung: Beiträge zur Beschreibung der technischen Welt. Berlin 2011.
Paul, Joachim: Medienphilosophie – ein interdisziplinäres Thema? (2005) In: ders., TRANS – Reflexionen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (a), S. 120-139.
Paul, Joachim: Zugänge – oder: Das Wir und unsere Technik. In: ders., TRANS – Reflexionen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (b), S. 16-38.
Paul, Joachim: Denken denken. In: ders., TRANS – Reflexionen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (c), S. 225-391.
Toulmin, Stephen E.: Kosmopolis, Die unerkannten Aufgaben der Moderne; Frankfurt 1994.
Williams, Roger J.: Biochemical Individuality; Univ. of Texas Press 1979, Neuauflage 1998.
Wolfram, Stephen: A New Kind of Science. UK 2002.