Luhmanns Wette

Dirk Baecker

Vorbemerkung: Man kommt sich fast etwas vorlaut (immerhin noch nicht: kleinlaut) vor, wenn man den Versuch unternimmt, Formen neuronaler, mentaler, sozialer und künstlicher Intelligenz miteinander zu vergleichen oder gar eine prinzipielle Überlegenheit der einen oder anderen zu behaupten. Es ist, als würden sich die digitalen Apparate angesichts solcher Versuche bereits ins nicht vorhandene Fäustchen lachen.

Auf Nick Bostroms Überlegungen zum aktuellen Stand einer Bemühung um eine Superintelligenz habe ich in diesem Blog bereits hingewiesen. Dirk Rustemeyer hat die aktuellen Ausflüge ins Posthumane ebenfalls in diesem Blog damit gekontert, dass auch die (unendliche) Steigerung von Intelligenz nichts daran ändern wird, dass jede einzelne Form von Intelligenz als je spezifische und eigensinnige gewürdigt werden muss. Das kann uns keine Maschine abnehmen. Als Niklas Luhmann in den 1990er Jahren Varianten seine These formulierte, dass die Computer eines Tages möglicherweise funktionieren werden wie ein Bewusstsein oder sogar ein Gehirn, sicherlich nicht jedoch wie eine Kommunikation, waren die aktuellen Formen des Maschinenlernens auf der Basis statistischer Algorithmen noch nicht absehbar: Noch nicht absehbar war, dass die dem cloud computing zur Verfügung stehenden Datenmengen den Algorithmen duch bloßen Abgleich zu findender Lösungen mit bereits vorliegenden Lösungen eine extreme Form der Mimesis an die bereits praktizierte menschliche Intelligenz ermöglichen würden.

Dennoch lohnt es sich, an Luhmanns These zu erinnern. Die These ist eine Wette. Vielleicht ist es ein Fehler, die Wette abzuschließen. Denn diese expliziert die Kriterien, denen die Maschinen genügen müssten, sollte sie verloren werden. Aber es klärt auch die Bedingungen, unter denen Gesellschaft funktioniert. Und diese sind nach wie vor eigenartig genug.

Foto Detlef Horster

Es gibt eine „Eigenart sozialer Systeme“, die für Computer, so vermutet Niklas Luhmann in seinem nachgelassenen Buch über Organisation und Entscheidung (Opladen 2000, S. 377), operativ und strukturell „unerreichbar“ ist. Künstlicher Intelligenz mag es gelingen, Bewusstseinsleistungen nachzubauen, und erst recht mag es ihr gelingen, sich vom Paradigma menschlicher Intelligenz zu lösen und dank großer Datenmengen, schneller Algorithmen und leistungsstarker Konnektivität einen eigenen Typus von Intelligenz aufzubauen; was ihr mit all dem nicht gelingt, ist die Modellierung, Formalisierung und Automatisierung von Kommunikation. In Luhmanns Buch Gesellschaft der Gesellschaft (Frankfurt am Main 1997, S. 303) liest man: „Eine ganz andere Frage ist, ob und wie weit Computer die gesellschaftskonstituierende Leistung der Kommunikation ersetzen oder überbieten können. Dazu müßten sie ja Wissen als Form behandeln, also wissen können, was andere Computer nicht wissen.“

Das ist Luhmanns Wette. Das ist auch eine der Pointen der Systemtheorie. Die Systemtheorie ist selbst ein Art Wette darauf, dass es organische, psychische, soziale und künstliche Systeme zum einen gibt und dass sie zum anderen untereinander sowohl Ähnlichkeiten als auch Verschiedenheiten aufweisen. Das ist einer der Gründe für die erneute Prominenz der Systemtheorie seit den 1940er Jahren, nachdem sie ihren Höhenpunkt im 17. und 18. Jahrhundert schon fast überschritten hatte, im 19. Jahrhundert im Zusammenhang der Entdeckung von „Milieu“ und „Umwelt“ jedoch reaktiviert wurde.

Seit den 1940er Jahren gilt das Interesse der Reduktion von Komplexität durch Systeme sowie der Unterschiedlichkeit der Mechanismen dieser Reduktion in verschiedenen Typen von Systemen. Man versucht herauszufinden, was künstliche Systeme von lebenden Systemen lernen können. Die Ausdifferenzierung gegenüber einer Umwelt, die Eigenschaft der Äquifinalität, das heißt einer funktionalen Beweglichkeit und Austauschbarkeit der Elemente und Strukturen eines Systems, sowie die Reproduktion eines Systems im Modus des zeitlichen Zerfalls scheint allen Systemen gemeinsam zu sein.

Die Art und Weise jedoch, in der sich Systeme auf ihre Umwelt beziehen, scheint von je anderer Art zu sein. Deswegen ist die rein formale Definition eines Systems von der Art und Weise der Materialisierung des Systems zu unterscheiden. Zwar gilt der von John von Neumann formulierte Algorithmus des Gewinns eines zuverlässigen Systems aus unzuverlässigen Elementen für jedes System, und natürlich muss die Zuverlässigkeit des Systems ihren eigenen Sinn für die Unzuverlässigkeit der Elemente behalten (zum Beispiel in der Form eines Wahrscheinlichkeitskalküls der Reproduktion), und doch scheint der Übersetzungsmechanismus von Unzuverlässigkeit in Zuverlässigkeit ein jeweils anderer sein. Scheint! Denn selbstverständlich kommt die Systemtheorie mit ihrer Auslotung einer unreduzierbaren Differenz von Formalisierung und Materialisierung zu keinem endgültigen Abschluss.

Der Proteinkreislauf des Lebens ist ein anderer als die prädiktive Codierung des Gehirns; und diese wiederum unterscheidet sich vom reflexiven Bewusstsein und von der medialen Kommunikation. Deswegen unterscheidet die Systemtheorie zwischen organischen, neuronalen, psychischen und sozialen Systemen. Lässt sich deren Modus der Ausdifferenzierung und Reproduktion auf ein und denselben Algorithmus reduzieren? Kann man jedes System, wie Talcott Parsons formulierte, als „lebend“ beschreiben, das eine funktionale Beziehung zwischen der Ausdifferenzierung in einer Umwelt auf der einen Seite und einer internen Systemdifferenzierung auf der anderen Seite einzurichten und aufrechtzuerhalten vermag? Gilt für alle „sozialen“ Systeme, dass sie die Probleme der strukturellen Rekonstruktion von Kontingenz und der Regelung der Komplexitätsgefälle lösen, wenn auch: auf verschiedene Weise lösen müssen, wie es Luhmann in den 1970er Jahren formulierte? Und wäre dies wiederum für andere Systemtypen verallgemeinerbar? Man sieht, wie sinnvoll es für Systemtheoretiker ist, Systeme untereinander zu unterscheiden und doch immer wieder auf die Einheit eines Systembegriffs zurückzukommen. Man riskiert dabei, am Systembegriff selbst zu zweifeln – rekonstruiert damit jedoch nichts anderes als die Problemstellung, die dieser Begriff leistet.

Luhmanns Wette lautet, dass auch für vernetzte Computer, die ihre Arbeitsergebnisse untereinander in Form von Daten austauschen, unerreichbar ist, was in sozialen Systemen unter „Kommunikation“ zu verstehen ist: „Kommunikation entsteht ja nur unter der Voraussetzung wechselseitiger Intransparenz, die auch Intransparenz der Systeme für sich selber einschließt. Man kennt sich mit sich selbst und mit anderen nicht aus, deshalb wird geredet, geschrieben, gedruckt, gefunkt.“ Die „eigentliche Leistung der Kommunikation“ sei daher „eine Synthese von Information, Mitteilung und Verstehen auf der Basis einer Unsicherheit verdrängenden Sinnkonstruktion, deren mangelnde Fundierung in physischen, chemischen und organischen Realitäten dadurch kompensiert werden kann, dass jede Kommunikation, wenn verstanden, mit ja oder nein beantwortet, also angenommen oder abgelehnt werden kann je nach Maßgabe von Überzeugungsmitteln, die im sozialen System selbst aktiviert werden können“ (Organisation und Entscheidung, S. 377). Die Unsicherheit wird verdrängt – und sie wird eingestanden, das heißt rekonstruiert, indem die Kommunikation damit rechnet, nicht verstanden und nicht angenommen zu werden. Nicht zuletzt wird dabei ein mitlaufendes Bewusstsein in Anspruch genommen, das seinerseits als intransparent für die Kommunikation und intransparent für sich selbst beschrieben wird. In Gesellschaft der Gesellschaft heißt es (S. 303): „Kommunikation ist ein laufendes Prozessieren der Differenz von Wissen und Nichtwissen, ohne daß es dazu nötig wäre, die Wissens-/Nichtwissensbestände in den beteiligten Individuen oder Maschinen zu ermitteln. Sie sind ebenso Ergebnis wie Voraussetzung von Kommunikation.“

Möglicherweise ist Luhmanns Wette aber auch ganz anders zu verstehen. Vielleicht geht es nicht darum, ob die künstliche Intelligenz eines Tages über ähnliche Operationen und damit über ähnliche Chancen der selbstreferentiellen Ausdifferenzierung und Reproduktion verfügt wie soziale Systeme. Mit dieser Problemfassung wären wir immer noch versucht, der menschlichen Intelligenz zu schmeicheln, selbst wenn wir den Hauptanteil an dieser der Kommunikation und nicht dem Bewusstsein zuschreiben. Wäre unsere soziale Praxis auf das beschränkt, was wir bewusst mitvollziehen können, hätten wir selbst die frühesten Komplexitätsschwellen nicht nehmen können. Nein, möglicherweise hat Luhmanns Wette ihre eigentliche Pointe in der Frage, ob Computer und ihre Netzwerke sich jemals an Kommunikation so beteiligen können, wie sich Menschen – immerhin – an ihr beteiligen können. Und in dieser Hinsicht stehen die Zeichen nicht schlecht. Dank ihrer Datenspeicher und konnektiven Algorithmen sind Maschinen längst so intransparent wie die Menschen. Wir durchschauen sie nicht; und sie überraschen uns. Die Frage muss daher lauten, ob es den Maschinen gelingt, ihre Beteiligung an der Kommunikation – nicht nur im Medium des affective computing, sondern, wer weiß, vielleicht auch im Medium eines learned computing – zu perfektionieren und ob sie, wenn ihnen das gelingt, auch noch ein Interesse daran haben, sich zu beteiligen.

Diese Überlegung läuft darauf hinaus, unseren Begriff der Kommunikation zu überdenken. Er kann und darf, wie es Jürgen Ruesch und Gregory Bateson in einem einschlägigen Zusammenhang angeregt haben (Communication: The Social Matrix of Psychiatry, New York 1951, dt. 1995), auf Kommunikation unter Menschen nicht beschränkt bleiben. Er muss alle Verhältnisse einschließen, in denen Abhängigkeiten zwischen unabhängigen Elementen gesucht und gepflegt werden, die ihre Unabhängigkeit nicht aufgeben, sondern in der einen Hinsicht einschränken, in anderen steigern wollen. Er beschreibt selbstgewählte lose Kopplungen zwischen komplexen Einheiten. Immer dann, wenn bestimmte Typen dieser Kopplungen sich ausdifferenzieren und reproduzieren, darf überdies von einem „System“ die Rede sein. Und immer dann, wenn diese Typen auf Operationen zurückgehen, in denen Unterscheidungen getroffen werden, die in den Raum ihrer Unterscheidung wieder eingeführt werden können, haben wir es überdies mit oszillierenden und gedächtnisfähigen „Formen“ im Sinne der Laws of Form (1969) von George Spencer-Brown zu tun. Jede dieser Formen hat eine Außenseite, deren Wiedereinführung über das Nichtwissen der Form informiert und an der Ergänzungen andocken können, die die Form weiter auszudifferenzieren erlauben. Die transjunktionale Operation Gotthard Günthers springt auf diese Art und Weise nicht etwa von einer Unterscheidung zu einer nächsten, sondern entfaltet eine intensional und extensional unabschließbare Form. Einmal begonnen, kann Kommunikation, nicht beendet, sondern nur alternativ ausdifferenziert werden. Durch Entzug einer passenden Umwelt (Menschen, Bewusstsein, Maschinen) kann man sie allenfalls austrocknen. „Ohne Wasser macht die Qualle schlapp“, so die Formulierung von Luhmann (in Anlehnung an Jürgen Diederich).

Luhmanns Wette zielt auf eine allgemeine Kommunikationstheorie. Diese allgemeine Kommunikationstheorie ergänzt das instrumentelle Verständnis eines Austausches von Signalen durch ein mediales Verständnis der größeren oder geringeren Attraktivität von  Beziehungen, Gelegenheiten, Anschlüssen. Sowohl bisherige als auch erwartete kommunikative Ereignisse beschreiben eine Menge lose gekoppelter Möglichkeiten (ein „Medium“ im Sinne von Fritz Heider), auf die sich die Teilnehmer an der Kommunikation im Rahmen ihrer selektiven Kapazitäten beziehen. Jeder Teilnehmer kontrolliert seine Teilnahme anhand eigener Erfahrungen und Erwartungen. Und teilnehmen kann jede komplexe Einheit, die für andere komplexe Einheiten hinreichend attraktiv ist beziehungsweise hinreichende Anlässe für Kontrollversuche liefert. Jedes kommunikative Ereignis definiert ein „algorithmisches Zeichen“ (Frieder Nake), in dem die Differenz strukturdeterminierter Systeme (Organismus, Bewusstsein, Gesellschaft, Maschine) auf der einen Seite und loser Kopplungen zwischen Systemen und Umwelten auf der anderen Seite für einen Moment zu einer komplexen Einheit finden. Diese komplexe Einheit ist ein Anknüpfungspunkt für Konditionierungen, die, je reflexiver sie ist, desto freier mit jenen Kausalitäten umgehen kann, die materiell zugleich zu bewältigen sind.

Die Kontrolle von Intransparenz, von der Luhmann in einem seiner letzten Aufsätze gesprochen hat (in: Heinrich W. Ahlemeyer und Roswita Königswieser (Hrsg.), Komplexität managen: Strategien, Konzepte und Fallbeispiele, Wiesbaden 1998, S. 51–76; demnächst wiederabgedruckt in: Niklas Luhmann, Die Kontrolle von Intransparenz, hrsg. von Dirk Baecker, Berlin: Suhrkamp, 2017) ist genau das: Erprobung von Formen, die auf der Innenseite Wissen und auf ihrer Außenseite Nichtwissen kommunizieren. Jedes „lebende“ System, das als Lösung der beiden Probleme der Ausdifferenzierung und der Reproduktion Bestand hat, ist das Ergebnis einer gelingenden Kontrolle von Intransparenz. In sozialen Systemen gibt es darüber hinaus einen Netzwerkkalkül im Sinne von Harrison C. White (Identity and Control, Princeton, NJ 1992, 2008), der beschreibt, welche Typen von Systemen sich an welcher Art von Interaktion (unter Anwesenden), Organisation (von Mitgliedschaft) und Gesellschaft (unter Anwesenden und Abwesenden) zu beteiligen vermögen. Dieser Kalkül rechnet auf Seiten aller Beteiligten (sowie aller im Moment Nichtbeteiligten) mit beidem, mit der Möglichkeit des Ausweichens (ambage) und mit der Möglichkeit der Reinterpretation (ambiguity). Er liefert eine strukturelle und kulturelle Beschreibung von in den Raum ihrer Möglichkeiten wieder eingeführten Formen, die Wissen und Nichtwissen laufend neu aufeinander beziehen, Adressen generieren, sich an Identitäten orientieren und an ihren Kontrollversuchen kenntlich bleiben.

Das Wissen um die Intransparenz ermöglicht einen Aufbau von Wissen aus Erfahrungen und Erwartungen und die Relationierung von Wissen und Nichtwissen zugunsten neuer Erfahrungen und Erwartungen. Die Kybernetik setzt ein mit dem Begriff der Black Box, beschreibt die Kontrolle dieser Black Box durch einen Beobachter als eine Interaktion, die sich an ihrem eigenen Gedächtnis orientiert, und unterstellt gelingenden Kontrollversuchen die Ausbildung einer Selbstreferenz, die nichts anderes ist als die wiederholbare Form von Wissen, Nichtwissen und Intransparenz. Dieses Selbst ist ebenso homöostatisch wie immunologisch zu verstehen. Es baut seine innere Umwelt aus, um mit Anfechtungen aller Art fertig zu werden.

Die Eigenart sozialer Systeme ist eine Kommunikation, die eine Kontrolle dieser Art ausdifferenziert und reproduziert. Wissen und Nichtwissen sind empirisch jeweils in den Sach-, Sozial- und Zeitdimensionen des Sinns zu spezifizieren. Ihre Unterscheidung bietet Raum für unterschiedliche strukturelle, kulturelle und institutionelle Rahmungen. Die unmarkierte Außenseite der Form bietet je nach Temperament des Beobachters Platz für Gottesvertrauen, Aufklärungserwartungen, Fortschrittshoffnungen, Vergeblichkeitsbeobachtungen und Zufallsglauben. Daran anschließend kann die Kontrolle einer eher ideologische, technologische oder ökologische Farbe annehmen. In jedem Fall jedoch schließt die Kommunikation jedes Ereignis ein, das mit welcher Reichweite auch immer kommunikativ verfasst ist, und wird dementsprechend auch von jedem kommunikativen Ereignis neu formatiert.

In die Variable der Intransparenz können Menschen, Organismen, Bewusstsein, Computer, Maschinen im Allgemeinen oder auch im Besonderen (Familienmitglieder, Organisationsmitglieder, Freunde, Feinde…; Tiere, Pflanzen, Wälder…; das eigene Bewusstsein, ein fremdes Bewusstsein…; spezifische Hardware, Software, Algorithmen, Vernetzungen…; mechanische, elektronische, automatische Maschinen…) eingesetzt werden. Wissen und Nichtwissen und dementsprechend Kontrolle variieren jeweils. Luhmanns Wette wird zur Wette darauf, dass sich ein auf die Kontrolle von Intransparenz eingestellter Kommunikationsbegriff im Umgang mit komplexen Einheiten jeglicher Art bewährt. Und sie wird zur Wette darauf, dass die Künstliche Intelligenz daran scheitern wird, Rechner in Netzwerken in diesem Sinne zu komplexen Einheiten auszubauen. Das Risiko dieser Wette liegt naturgemäß nicht nur darin, dass sie verloren wird, sondern auch darin, dass sie dabei hilft, die Bedingungen zu formulieren, denen die Künstliche Intelligenz genügen muss, damit sie verloren wird.

Und von doppelter Kontingenz, die seit Talcott Parsons zu den Startbedingungen von Handlung und Kommunikation zählt, haben wir hier noch gar nicht gesprochen.

Siehe auch: Dirk Baecker, Niklas Luhmann in der Gesellschaft der Computer, in: Merkur 55, Heft 7 (Juli 2001), S. 597-609; und mit einem Überblick über systemtheoretische Beiträge zu einer Soziologie der Computer und Algorithmen Jonathan Harth und Caspar-Fridolin Lorenz, „Hello World“: Systemtheoretische Überlegungen zu einer Soziologie des Algorithmus, in: Algorithmen, Kommunikation und Gesellschaft. Sonderheft von kommunikation@gesellschaft 18 (2017), Essay 1, pdf: ssoar.


3 Gedanken zu „Luhmanns Wette

  1. Gerd Wilbert

    „Luhmanns Wette wird zur Wette darauf, dass sich ein auf die Kontrolle von Intransparenz eingestellter Kommunikationsbegriff im Umgang mit komplexen Einheiten jeglicher Art bewährt. Und sie wird zur Wette darauf, dass die Künstliche Intelligenz daran scheitern wird, Rechner in Netzwerken in diesem Sinne zu komplexen Einheiten auszubauen“

    Die erste Wette ist höxt plausibel. Die zweite uninteressant. Selbst wenn „die KI“ so etwas wie eine digitale Netzwerk-Gesellschaft hervorbrächte, ist das nichts Neues, abgesehen von den neuen sich selbst und wexelseitig intransparenten komplexen Einheiten. Gesellschaft als Gattung hat eine neue Art. Die Frage ist doch die der Primatologen & Delfinisten, ob die Gattung wirklich ist und sich die Arten verständigen können. Ob sich eine komplexe digitale Einheit – die, da sie künstlich ist, auch ohne eigene Gesellschaft herstellbar & individualisierbar ist (Roboter) – zurechtfindet in DER (unserer) Gesellschaft und in ihr (als Komm-Partner) akzeptiert wird. Und da stehen die Chancen gut.

    Antworten
  2. Pingback: Luhmanns Wette | Kultur/Reflexion

  3. Pingback: Luhmanns Wette | The Catjects Project

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.