Die Vermessung der Welt und das Ende des gesunden Menschenverstandes?

Die Liste der Bücher, die sich mit dem digitalen Wandel auseinandersetzen, wird von Jahr zu Jahr länger. Mit Chistoph Kucklick hat sich nun auch der Chefredakteur der Zeitschrift GEO dieses Themas angenommen und einen sehr inspirierenderen Zugang gefunden: Er beschränkt sich nicht darauf, die Revolution der Wirtschaft oder der Medien zu propagieren, sondern nimmt den allgemeinen gesellschaftlichen Wandel in den Blick.

Dabei positioniert er sich weder auf der Seite der Digital-Enthusiasten noch auf der der kulturpessimistischen analogen Bewahrer, sondern nimmt eine angenehme Mittelposition ein, die die digitale Entwicklung im Allgemeinen begrüßt, jedoch auf mögliche Probleme und Fehlentwicklungen hinweist. So stehen im Mittelpunkt seines Buches Die granulare Gesellschaft drei Revolutionen: die Differenz-Revolution, die Intelligenz-Revolution und die Kontroll-Revolution. Dabei leitet er den titelgebenden Begriff der “granularen Gesellschaft” in erster Linie aus der Differenz-Revolution ab.

Die Differenzrevolution in der digitalisierten Gesellschaft

Christoph Kucklick: Die granulare Gesellschaft. (Ullstein 2014, 978-3-550-08076-0)

Christoph Kucklick: Die granulare Gesellschaft. (Ullstein 2014, 978-3-550-08076-0)

Das zentrale Merkmal des digitalen Wandels ist für Kucklick nicht der universelle Zugang zu Informationen, Unterhaltungsmedien oder dem “Long Tail” der Produkte, sondern die generierte Datenmenge:

Digitalisierung bedeutet vor allem: Wir selbst und unsere Gesellschaft werden auf neue Weise vermessen. Unser Körper, unsere sozialen Beziehungen, die Natur, unsere Politik, unsere Wirtschaft – alles wird feinteiliger, höher auflösend, durchdringender erfasst, analysiert und bewertet denn je (S. 10)

Dabei werden diese Daten nicht in der Form klassischer Umfragen oder Stichprobenerhebungen gewonnen, sondern ergeben sich in den meisten Fällen als Datenspuren aus unserem alltäglichen Handeln: Freundschaften in sozialen Medien, Positionsdaten von Smartphones oder Telemetriedaten des Autos.

Solchermaßen erhobene Daten können in unterschiedlicher Weise genutzt werden, um spezifische Informationen über Einzelne oder Gruppen zu gewinnen; beispielsweise die soziale Einbettung, alltägliche Mobilitätsmuster oder der persönliche Fahrstil. Diese Informationen können uns wiederum zurückgespiegelt werden und damit in unserem Handeln und Leben beeinflussen. Durch ihre vorgebliche “Objektivität” erhalten sie gar ein besonderes Gewicht:

Die schnellen Maschinen erzeugen einen enormen Druck. Wir werden »tiefen« Beobachtungen ausgesetzt, die wir angesichts der vermeintlichen »Objektivität« der Daten nur schwer abweisen können, und die uns rasche Verhaltensänderungen abnötigen. (S. 27)

Solche Informationen können durchaus in unserem Sinne sein, wenn sie unseren Interessen entsprechend eingesetzt werden. Gerade die Quantified-Self-Bewegung legt großen Wert darauf, die an sich selbst gemessenen Daten einzusetzen, um sich selbst besser zu verstehen oder das eigene Leben angenehmer, erfolgreicher oder was auch immer zu gestalten.

Daten über Individuen ermöglichen unvorhersehbare Mikrodiskriminierungen

ampel

Gleichzeitig können diese Daten jedoch auch eingesetzt werden, um eine neue Form von Ungleichbehandlungen zu etablieren, die Kucklick “Mikrodiskriminierungen” nennt. Hierbei lösen sich etablierte Unterscheidungen auf der Basis grober und weitestgehend eindeutiger Kriterien wie Einkommen, Alter oder (biologisches) Geschlecht auf. Sie werden ersetzt durch komplexe Berechnungen auf der Grundlage zahlreicher Datenpunkte, welche für den Einzelnen nicht mehr nachzuvollziehen und zu überschauen sind:

Größere Gruppen wie etwa Besserverdienende oder Frauen lassen sich vorab gut definieren, die Kriterien sind eindeutig, sie sind allen Beteiligten transparent und die Gruppen selbst sind recht stabil. Zwar sinkt bei einzelnen Bürgern das Einkommen gelegentlich und manche Frauen wechseln ihr Geschlecht, aber insgesamt haben wir es mit verlässlichen Gruppen zu tun. Bei der algorithmischen Kalkulation ist dagegen unklar, wer jeweils zu weicher Gruppe gehört. Es gibt nichts oder nur wenig, worauf sich ein Bürger vorab einstellen könnte: Sein algorithmisch erstelltes Profil ist stets intelligent, im Sinne von überraschend – es ist nur schwer oder gar nicht nachzuvollziehen. (S. 138)

Diese Undurchschaubarkeit sorgt auf der Seite der betroffenen Menschen für ein extremes Maß an Unsicherheit, da sie die Resultate der Berechnungen in keiner Form im Voraus abschätzen können. Es kann sogar sein, dass der genaue Zeitpunkt der Berechnung eine zentrale Rolle spielt, weil sich nur wenig später ein auf den ersten Blick irrelevanter Datenpunkt verändern würde, der jedoch immense Auswirkungen auf das Resultat hat. Gruppenzuschreibungen und Erwartungen werden auf diese Weise zwar möglichweise “präziser” und “objektiver”, sie wirken jedoch gleichzeitig willkürlich und in noch höherem Maße fremdbestimmt.

Darüber hinaus kommt in diesem Fall den konkreten Berechnungsalgorithmen eine zentrale Bedeutung zu. Diese bestimmen dann noch stärker als bisher schon über die Höhe des Versicherungsbeitrags, die Besetzung einer Stelle oder die Steuerlast. Sind diese Berechnungsverfahren dann auch noch “Eigentum” der entsprechenden Unternehmen und nicht öffentlich einsehbar, verlagert sich Entscheidungsgewalt in hohem Maße in undurchschaubare und mit bestimmten Partikularinteressen im Hintergrund entwickelte Black Boxen. Kucklick schlägt zur Abschwächung dieses Problems die Einführung von “Algorithmenprüfern” in der Analogie zu Wirtschaftsprüfern vor. Ein Modell könnte auch die bereits etablierte Genehmingungspflicht für die Kalkulation von bestimmten Versicherungstarifen sein.

Institutionell gesetzte, explizite Regeln ersetzen situativ ausgehandelte Kriterien

Teil der Differenzmaschine Nr. 1 von Charles Babbage

Teil der Differenzmaschine Nr. 1 von Charles Babbage

Wenn sich Entscheidungsgewalt in Algorithmen verlagert, gilt es eine weitere Eigenschaft digitaler Systeme zu bedenken, die Kucklick zufolge zu einer Überforderungen der gesellschaftlichen Institutionen führt. (Dabei versteht er “Institutionen” im soziologischen Sinne allgemein als gesellschaftlich etablierte Regelsysteme.):

Wichtiger ist, dass sich digitale Maschinen mit alldem, was unsere Hirne belastet, nicht herumschlagen müssen. Sie operieren nicht mit Sinn, nicht mit Gefühlen und Wünschen, mit Hoffnungen und Sehnsüchten, sondern bloß mit Symbolen, mit Ziffern und Zeichen. Wofür diese stehen, ist ihnen egal. (S. 88)

Er befürchtet also, dass der “gesunde Menschenverstand”, die situative Aushandlung von Kriterien und das soziale Abwägen unterschiedlicher Faktoren und Argumente bei entsprechend automatisierten Entscheidungen zu kurz kommt. Auch wenn Unternehmen oder Bürokratien bereits heute über relativ starre Regelsysteme verfügen, besitzen die Schnittstellen, die mit den Kunden bzw. Bürgern interagieren, gewisse Spielräume, innerhalb derer sie ihre eigene Einschätzung der Situation vornehmen können. Auch wenn sich hier ein Einfallstor für (unbewusste) Diskriminierung beispielsweise nach Hautfarbe oder Alter findet, hat der Wechsel zu “objektiven” Entscheidungsalgorithmen einen Paradigmenwechsel in der gesellschaftlichen Ethik zur Folge:

Maschinen ticken anders. Ihre Regeln und Handlungsweisen müssen ihnen Buchstabe für Buchstabe einprogrammiert werden. Aus einer gesetzlichen Vorschrift muss eine exakt zu programmierende Vor-Schrift werden. Um diese verfassen zu können, müssen wir alle Regeln, auch die ethischen, vorab festlegen. (S. 154)

Jede Entscheidungsregel und jedes Kriterium muss dem Algorithmus fest vorgeben werden. Unvorhersehbare Kriterien oder spezifische Konstellationen von Faktoren können nicht länger ad hoc von – im Normalfall – sozial wie fachlich kompetenten Menschen abgewogen werden, sondern werden anhand der immer gleichen, vorgegebenen Berechnungsvorgaben zusammengeführt. Damit müssen komplexe Systeme impliziter Normen und das feine Gespür der meisten Menschen für die Angemessenheit von Entscheidungen explizit gemacht und in Algorithmen überführt werden. Es gilt dann nur mehr das Wort des Gesetzes und nicht mehr sein Sinn oder seine Intention.

Da wir keinerlei Institutionen haben, die solche wichtigen Debatten öffentlich auslösen und moderieren könnten, werden solche Entscheidungen aktuell in den Entwicklungsabteilungen zahlreicher Firmen getroffen und durchdringen nach und nach das fein gesponnene Geflecht unseres Gemeinwesens. Auf diese Weise werden Entscheidungen über unser Leben sicherlich “gleicher”, aber werden Sie auch gerechter?

Nils Müller
bringt nicht nur anderen Schreiben bei, sondern schreibt auch selbst leidenschaftlich gerne. Als Soziologe interessiert er sich für die Gesellschaft genauso wie für Wissenschaft und die Frage nach dem guten Leben. Er lebt und liest in Dortmund, Bielefeld und auf dem Weg im ICE. Mehr zu ihm gibt es unter nilsmueller.info

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.