Von Erwartungen und Intelligenz

Dieses Jahr kann ich lei­der mal wieder nicht auf der re:publica in Berlin sein. Doch glück­licher­weise kann man viele der inter­es­san­ten Ideen und The­men, die dort disku­tiert wer­den, auch vom heimis­chen Schreibtisch ver­fol­gen.

Heute wurde mir da in erster Lin­ie dieser äußerst inter­es­sante Vor­trag des selb­sterk­lärten „Lud­diten“ tante in die Time­line gespült. Tante ist in meinen Augen ein­er der schärf­sten deutschsprachi­gen Denker, wenn es um den Zusam­men­hang zwis­chen Tech­nolo­gie und Gesellschaft geht.

Auch sein re:publica-Vortrag ent­täuscht nicht und bietet unter anderem eine span­nende Leseliste zu Tech­nolo­giegläu­bigkeit und gesellschaftlich­er Selb­stver­ständlichkeit des Kap­i­tal­is­mus.

Beson­ders ange­sprochen hat mich allerd­ings fol­gende Folie über die „Intel­li­genz“ von KI und deren Fol­gen für die Arbeit:

Die Gefahr ist nicht, dass „KI“ so gut ist wie Men­schen, die Gefahr ist, dass das deinem Boss egal ist.

Das macht sehr schön deut­lich, wie rel­a­tiv die Erwartun­gen an men­schliche Arbeit im Kap­i­tal­is­mus sind. Arbeit muss nicht gut sein, Arbeitnehmer*innen müssen auch nicht kom­pe­tent sein. Sie müssen „nur“ die Erwartun­gen erfüllen, die andere an sie richt­en.

Zum Prob­lem wird das, wenn man hier zwei andere bekan­nte Phänomene ein­bezieht: das Prinzi­pal-Agen­ten-Prob­lem und den Dun­ning-Kruger-Effekt:

Das Prinzi­pal-Agen­ten-Prob­lem beschreibt im Kern, dass Man­ag­er die Qual­ität der Arbeit schlechter ein­schätzen kön­nen als die Mitar­bei­t­en­den, die sie leis­ten. Ein­fach, weil sie sie nur von außen sehen und oft­mals wed­er über die Erfahrung noch die spez­i­fis­che Fachkom­pe­tenz ver­fü­gen.

Der Dun­ning-Kruger-Effekt hinge­gen hebt her­vor, wie schw­er es Men­schen fällt, ihre eigene Kom­pe­tenz einzuschätzen – ger­ade, wenn diese in einem Bere­ich eher ger­ing ist.

Wenn wir nun also an den Punkt kom­men, wo Vorge­set­zte die Arbeit ihrer Mitarbeiter*innen bew­erten, denen gegenüber sie (oft) sowohl eine gerin­gere spez­i­fis­che Kom­pe­tenz haben und ihre Kom­pe­tenz dann noch ten­den­ziell über­schätzen, wird die Gefahr deut­lich: Ein algo­rith­misch gener­iert­er Text, der klingt wie eine plau­si­ble Antwort auf eine Frage, kön­nte dann sehr ein­fach für eine richtige Antwort auf eben diese Frage gehal­ten wer­den.

Quellen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert