Die Vermessung der Welt und das Ende des gesunden Menschenverstandes?

Die Liste der Büch­er, die sich mit dem dig­i­tal­en Wan­del auseinan­der­set­zen, wird von Jahr zu Jahr länger. Mit Chistoph Kuck­lick hat sich nun auch der Chefredak­teur der Zeitschrift GEO dieses The­mas angenom­men und einen sehr inspiri­eren­deren Zugang gefun­den: Er beschränkt sich nicht darauf, die Rev­o­lu­tion der Wirtschaft oder der Medi­en zu propagieren, son­dern nimmt den all­ge­meinen gesellschaftlichen Wan­del in den Blick.

Dabei posi­tion­iert er sich wed­er auf der Seite der Dig­i­tal-Enthu­si­as­ten noch auf der der kul­turpes­simistis­chen analo­gen Bewahrer, son­dern nimmt eine angenehme Mit­tel­po­si­tion ein, die die dig­i­tale Entwick­lung im All­ge­meinen begrüßt, jedoch auf mögliche Prob­leme und Fehlen­twick­lun­gen hin­weist. So ste­hen im Mit­telpunkt seines Buch­es Die gran­u­lare Gesellschaft drei Rev­o­lu­tio­nen: die Dif­ferenz-Rev­o­lu­tion, die Intel­li­genz-Rev­o­lu­tion und die Kon­troll-Rev­o­lu­tion. Dabei leit­et er den titel­geben­den Begriff der “gran­u­laren Gesellschaft” in erster Lin­ie aus der Dif­ferenz-Rev­o­lu­tion ab.

Die Differenzrevolution in der digitalisierten Gesellschaft

Das zen­trale Merk­mal des dig­i­tal­en Wan­dels ist für Kuck­lick nicht der uni­verselle Zugang zu Infor­ma­tio­nen, Unter­hal­tungsme­di­en oder dem “Long Tail” der Pro­duk­te, son­dern die gener­ierte Daten­menge:

Dig­i­tal­isierung bedeutet vor allem: Wir selb­st und unsere Gesellschaft wer­den auf neue Weise ver­messen. Unser Kör­p­er, unsere sozialen Beziehun­gen, die Natur, unsere Poli­tik, unsere Wirtschaft – alles wird fein­teiliger, höher auflösend, durch­drin­gen­der erfasst, analysiert und bew­ertet denn je (S. 10)

Dabei wer­den diese Dat­en nicht in der Form klas­sis­ch­er Umfra­gen oder Stich­proben­er­he­bun­gen gewon­nen, son­dern ergeben sich in den meis­ten Fällen als Daten­spuren aus unserem alltäglichen Han­deln: Fre­und­schaften in sozialen Medi­en, Posi­tions­dat­en von Smart­phones oder Teleme­triedat­en des Autos.

Solcher­maßen erhobene Dat­en kön­nen in unter­schiedlich­er Weise genutzt wer­den, um spez­i­fis­che Infor­ma­tio­nen über Einzelne oder Grup­pen zu gewin­nen; beispiel­sweise die soziale Ein­bet­tung, alltägliche Mobil­itätsmuster oder der per­sön­liche Fahrstil. Diese Infor­ma­tio­nen kön­nen uns wiederum zurück­ge­spiegelt wer­den und damit in unserem Han­deln und Leben bee­in­flussen. Durch ihre vorge­bliche “Objek­tiv­ität” erhal­ten sie gar ein beson­deres Gewicht:

Die schnellen Maschi­nen erzeu­gen einen enor­men Druck. Wir wer­den »tiefen« Beobach­tun­gen aus­ge­set­zt, die wir angesichts der ver­meintlichen »Objek­tiv­ität« der Dat­en nur schw­er abweisen kön­nen, und die uns rasche Ver­hal­tensän­derun­gen abnöti­gen. (S. 27)

Solche Infor­ma­tio­nen kön­nen dur­chaus in unserem Sinne sein, wenn sie unseren Inter­essen entsprechend einge­set­zt wer­den. Ger­ade die Quan­ti­fied-Self-Bewe­gung legt großen Wert darauf, die an sich selb­st gemesse­nen Dat­en einzuset­zen, um sich selb­st bess­er zu ver­ste­hen oder das eigene Leben angenehmer, erfol­gre­ich­er oder was auch immer zu gestal­ten.

Daten über Individuen ermöglichen unvorhersehbare Mikrodiskriminierungen

Gle­ichzeit­ig kön­nen diese Dat­en jedoch auch einge­set­zt wer­den, um eine neue Form von Ungle­ich­be­hand­lun­gen zu etablieren, die Kuck­lick “Mikrodiskri­m­inierun­gen” nen­nt. Hier­bei lösen sich etablierte Unter­schei­dun­gen auf der Basis grober und weitest­ge­hend ein­deutiger Kri­te­rien wie Einkom­men, Alter oder (biol­o­gis­ches) Geschlecht auf. Sie wer­den erset­zt durch kom­plexe Berech­nun­gen auf der Grund­lage zahlre­ich­er Daten­punk­te, welche für den Einzel­nen nicht mehr nachzu­vol­lziehen und zu über­schauen sind:

Größere Grup­pen wie etwa Besserver­di­enende oder Frauen lassen sich vor­ab gut definieren, die Kri­te­rien sind ein­deutig, sie sind allen Beteiligten trans­par­ent und die Grup­pen selb­st sind recht sta­bil. Zwar sinkt bei einzel­nen Bürg­ern das Einkom­men gele­gentlich und manche Frauen wech­seln ihr Geschlecht, aber ins­ge­samt haben wir es mit ver­lässlichen Grup­pen zu tun. Bei der algo­rith­mis­chen Kalku­la­tion ist dage­gen unklar, wer jew­eils zu weich­er Gruppe gehört. Es gibt nichts oder nur wenig, worauf sich ein Bürg­er vor­ab ein­stellen kön­nte: Sein algo­rith­misch erstelltes Pro­fil ist stets intel­li­gent, im Sinne von über­raschend – es ist nur schw­er oder gar nicht nachzu­vol­lziehen. (S. 138)

Diese Undurch­schaubarkeit sorgt auf der Seite der betrof­fe­nen Men­schen für ein extremes Maß an Unsicher­heit, da sie die Resul­tate der Berech­nun­gen in kein­er Form im Voraus abschätzen kön­nen. Es kann sog­ar sein, dass der genaue Zeit­punkt der Berech­nung eine zen­trale Rolle spielt, weil sich nur wenig später ein auf den ersten Blick irrel­e­van­ter Daten­punkt verän­dern würde, der jedoch immense Auswirkun­gen auf das Resul­tat hat. Grup­pen­zuschrei­bun­gen und Erwartun­gen wer­den auf diese Weise zwar möglich­weise “präzis­er” und “objek­tiv­er”, sie wirken jedoch gle­ichzeit­ig willkür­lich und in noch höherem Maße fremdbes­timmt.

Darüber hin­aus kommt in diesem Fall den konkreten Berech­nungsal­go­rith­men eine zen­trale Bedeu­tung zu. Diese bes­tim­men dann noch stärk­er als bish­er schon über die Höhe des Ver­sicherungs­beitrags, die Beset­zung ein­er Stelle oder die Steuer­last. Sind diese Berech­nungsver­fahren dann auch noch “Eigen­tum” der entsprechen­den Unternehmen und nicht öffentlich ein­se­hbar, ver­lagert sich Entschei­dungs­ge­walt in hohem Maße in undurch­schaubare und mit bes­timmten Par­tiku­lar­in­ter­essen im Hin­ter­grund entwick­elte Black Box­en. Kuck­lick schlägt zur Abschwächung dieses Prob­lems die Ein­führung von “Algo­rith­men­prüfern” in der Analo­gie zu Wirtschaft­sprüfern vor. Ein Mod­ell kön­nte auch die bere­its etablierte Genehmin­gungspflicht für die Kalku­la­tion von bes­timmten Ver­sicherungstar­ifen sein.

Institutionell gesetzte, explizite Regeln ersetzen situativ ausgehandelte Kriterien

Wenn sich Entschei­dungs­ge­walt in Algo­rith­men ver­lagert, gilt es eine weit­ere Eigen­schaft dig­i­taler Sys­teme zu bedenken, die Kuck­lick zufolge zu ein­er Über­forderun­gen der gesellschaftlichen Insti­tu­tio­nen führt. (Dabei ver­ste­ht er “Insti­tu­tio­nen” im sozi­ol­o­gis­chen Sinne all­ge­mein als gesellschaftlich etablierte Regel­sys­teme.):

Wichtiger ist, dass sich dig­i­tale Maschi­nen mit all­dem, was unsere Hirne belastet, nicht herum­schla­gen müssen. Sie operieren nicht mit Sinn, nicht mit Gefühlen und Wün­schen, mit Hoff­nun­gen und Sehn­sücht­en, son­dern bloß mit Sym­bol­en, mit Zif­fern und Zeichen. Wofür diese ste­hen, ist ihnen egal. (S. 88)

Er befürchtet also, dass der “gesunde Men­schen­ver­stand”, die sit­u­a­tive Aushand­lung von Kri­te­rien und das soziale Abwä­gen unter­schiedlich­er Fak­toren und Argu­mente bei entsprechend automa­tisierten Entschei­dun­gen zu kurz kommt. Auch wenn Unternehmen oder Bürokra­tien bere­its heute über rel­a­tiv starre Regel­sys­teme ver­fü­gen, besitzen die Schnittstellen, die mit den Kun­den bzw. Bürg­ern inter­agieren, gewisse Spiel­räume, inner­halb der­er sie ihre eigene Ein­schätzung der Sit­u­a­tion vornehmen kön­nen. Auch wenn sich hier ein Ein­fall­stor für (unbe­wusste) Diskri­m­inierung beispiel­sweise nach Haut­farbe oder Alter find­et, hat der Wech­sel zu “objek­tiv­en” Entschei­dungsal­go­rith­men einen Par­a­dig­men­wech­sel in der gesellschaftlichen Ethik zur Folge:

Maschi­nen tick­en anders. Ihre Regeln und Hand­lungsweisen müssen ihnen Buch­stabe für Buch­stabe ein­pro­gram­miert wer­den. Aus ein­er geset­zlichen Vorschrift muss eine exakt zu pro­gram­mierende Vor-Schrift wer­den. Um diese ver­fassen zu kön­nen, müssen wir alle Regeln, auch die ethis­chen, vor­ab fes­tle­gen. (S. 154)

Jede Entschei­dungsregel und jedes Kri­teri­um muss dem Algo­rith­mus fest vorgeben wer­den. Unvorherse­hbare Kri­te­rien oder spez­i­fis­che Kon­stel­la­tio­nen von Fak­toren kön­nen nicht länger ad hoc von – im Nor­mal­fall – sozial wie fach­lich kom­pe­ten­ten Men­schen abge­wogen wer­den, son­dern wer­den anhand der immer gle­ichen, vorgegebe­nen Berech­nungsvor­gaben zusam­menge­führt. Damit müssen kom­plexe Sys­teme impliziter Nor­men und das feine Gespür der meis­ten Men­schen für die Angemessen­heit von Entschei­dun­gen expliz­it gemacht und in Algo­rith­men über­führt wer­den. Es gilt dann nur mehr das Wort des Geset­zes und nicht mehr sein Sinn oder seine Inten­tion.

Da wir kein­er­lei Insti­tu­tio­nen haben, die solche wichti­gen Debat­ten öffentlich aus­lösen und mod­erieren kön­nten, wer­den solche Entschei­dun­gen aktuell in den Entwick­lungsabteilun­gen zahlre­ich­er Fir­men getrof­fen und durch­drin­gen nach und nach das fein gesponnene Geflecht unseres Gemein­we­sens. Auf diese Weise wer­den Entschei­dun­gen über unser Leben sicher­lich “gle­ich­er”, aber wer­den Sie auch gerechter?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert