KI lindert Symptome, löst aber keine Probleme

Der Einsatz von „KI“ dient in zahlreichen Bereichen in erster Linie dazu, Symptome abzuschwächen, um nicht die eigentlichen Probleme lösen zu müssen.

Der Einsatz von „künstlicher Intelligenz“ in zahlreichen Bereichen dient oft in erster Linie dazu, Symptome abzuschwächen, um nicht die eigentlichen Probleme lösen zu müssen.

KI in der Kommunikation

Ein solches Beispiel sind generative KI-Modelle, die aus Stichpunkten längere Texte machen –beispielsweise bei der Erstellung von Projektbeschreibungen oder in E-Mails. Das Problem dabei ist: Wenn es reicht, dass eine KI den Text künstlich aufbläht, steckt dort keine zusätzliche Information drin – zumindest keine, die genuin mir als Autor zuzurechnen wäre. Die hinzugefügte Information ist generisch, bestenfalls unkonkret und schlimmstenfalls nicht auf den Kontext angepasst oder sogar falsch.

Ich mache das dann nur, um eine bestimmte formale Anforderung zu erfüllen, nicht um ernsthaft zu kommunizieren. Eigentlich sollte es in diesem Zusammenhang reichen, eben den Stichpunkt zu kommunizieren. Wenn ich selbst weitere Informationen habe, muss ich sie auch selbst kommunizieren, oder ich nehme die Stichpunkte als Anlass, sie gemeinsam mit meinem Gegenüber auszuarbeiten.

Solch inhaltsleere Texte sind insbesondere dann nötig, wenn es bürokratische oder anderweitig tradierte Anforderungen gibt, die ein bestimmtes sprachliches Register erfordern. Anstatt nun aber den komplizierten Weg zu gehen und die Sinnhaftigkeit dieser Anforderungen zu hinterfragen, schaffen wir ein komplexes technisches System, das diese oberflächlich zu erfüllen hilft. Das schafft zusätzliche Komplexität, die wiederum bewältigt werden muss und neue Risiken kreiert.

KI und Neoliberalismus

Dieses Phänomen schließt unmittelbar an ein weiteres Problem im Umgang mit Technologie in unserer Gesellschaft an: den Solutionismus, der die Lösung gesellschaftlicher Probleme in der Entwicklung und Einführung neuer Technologien sucht. Evgeny Morozov beschreibt in einem Essay für die New York Times, wie unter anderem „künstliche Intelligenz“ dafür genutzt wird, es den Menschen irgendwie zu erleichtern, sich mit der maroden Infrastruktur auseinanderzusetzen, anstatt dass die Infrastruktur in einen nutzbaren Zustand gebracht wird:

Its creators leveraged technology to influence the demand side (the riders), seeing structural changes to the supply side (like raising public transport funding) as too difficult. Tech would help make Chicagoans adapt to the city’s deteriorating infrastructure rather than fixing it in order to meet the public’s needs.

Das sieht man zum Beispiel auch in der Arbeit mit Systemen wie Microsoft-SharePoint: Hier werden nicht gesunde und strukturierte Arbeitsweisen unterstützt, sondern einfach alles auf viele Haufen geworfen. Die KI findet dann schon irgendwie genau das, was man gerade braucht und sucht. So wird der Haufen größer und unübersichtlicher, die Abhängigkeit von der KI wächst und wächst und schließlich weiß keiner mehr, was da eigentlich passiert.

Der Neoliberalismus kann so einige seiner Schattenseiten notdürftig übertünchen. Gleichzeitig entsteht jedoch ein Maß an Komplexität, das immer schwerer zu überblicken wird und dessen grundlegende – in diesem Fall neoliberale – Strukturen immer schwerer zu erkennen sind, geschweige denn grundlegend verändert werden können. Und wieder zeigt sich, wie sich ein ideologisches System gegen Kritik von außen hermetisiert und der Kapitalismus im Kern wettbewerbsfeindlich ist …

Artikel, die auf diesen Text verweisen


Kommentare

Schreibe einen Kommentar