Von Erwartungen und Intelligenz

Dieses Jahr kann ich leider mal wieder nicht auf der re:publica in Berlin sein. Doch glücklicherweise kann man viele der interessanten Ideen und Themen, die dort diskutiert werden, auch vom heimischen Schreibtisch verfolgen.

Heute wurde mir da in erster Linie dieser äußerst interessante Vortrag des selbsterklärten „Ludditen“ tante in die Timeline gespült. Tante ist in meinen Augen einer der schärfsten deutschsprachigen Denker, wenn es um den Zusammenhang zwischen Technologie und Gesellschaft geht.

Auch sein re:publica-Vortrag enttäuscht nicht und bietet unter anderem eine spannende Leseliste zu Technologiegläubigkeit und gesellschaftlicher Selbstverständlichkeit des Kapitalismus.

Besonders angesprochen hat mich allerdings folgende Folie über die „Intelligenz“ von KI und deren Folgen für die Arbeit:

Die Gefahr ist nicht, dass „KI“ so gut ist wie Menschen, die Gefahr ist, dass das deinem Boss egal ist.

Das macht sehr schön deutlich, wie relativ die Erwartungen an menschliche Arbeit im Kapitalismus sind. Arbeit muss nicht gut sein, Arbeitnehmer*innen müssen auch nicht kompetent sein. Sie müssen „nur“ die Erwartungen erfüllen, die andere an sie richten.

Zum Problem wird das, wenn man hier zwei andere bekannte Phänomene einbezieht: das Prinzipal-Agenten-Problem und den Dunning-Kruger-Effekt:

Das Prinzipal-Agenten-Problem beschreibt im Kern, dass Manager die Qualität der Arbeit schlechter einschätzen können als die Mitarbeitenden, die sie leisten. Einfach, weil sie sie nur von außen sehen und oftmals weder über die Erfahrung noch die spezifische Fachkompetenz verfügen.

Der Dunning-Kruger-Effekt hingegen hebt hervor, wie schwer es Menschen fällt, ihre eigene Kompetenz einzuschätzen – gerade, wenn diese in einem Bereich eher gering ist.

Wenn wir nun also an den Punkt kommen, wo Vorgesetzte die Arbeit ihrer Mitarbeiter*innen bewerten, denen gegenüber sie (oft) sowohl eine geringere spezifische Kompetenz haben und ihre Kompetenz dann noch tendenziell überschätzen, wird die Gefahr deutlich: Ein algorithmisch generierter Text, der klingt wie eine plausible Antwort auf eine Frage, könnte dann sehr einfach für eine richtige Antwort auf eben diese Frage gehalten werden.

Artikel, die auf diesen Text verweisen


Kommentare

Schreibe einen Kommentar