Dem Kapitalismus reicht Mittelmaß

In der Diskussion um die Qualität der Ergebnisse von Large Language Models ist eines der zentralen Argumente der Kritiker die unzureichende Zuverlässigkeit, die fehlende Qualität und die Gleichförmigkeit der Ergebnisse. An dieser Stelle kann und will ich auch gar nicht widersprechen – das grundlegende Funktionsprinzip dieser Algorithmen ist es, Muster aus alten Daten auf neue anzuwenden.

Das Problem ist nur, dass das in unserer kapitalistischen Wirtschafts- und Gesellschaftsordnung nicht interessiert. So schreibt Gabriel Yoran in einem Artikel, den ich hier auch schon mehrfach erwähnt habe:

Unternehmen machen Produkte gerade so gut, wie es die Akzeptanzkultur in der jeweiligen Produktkategorie im jeweiligen Absatzmarkt erfordert.

Auch an anderer Stelle wird dieser Punkt offenbar: bei der Digitalisierung unserer Wirtschaft und Verwaltung. So schreibt Bianca Kastl bei netzpolitik.org über die inhärente Mittelmäßigkeit der weit verbreiteten digitalen Werkzeuge:

Helfen würde hier die Erkenntnis, dass Excel zwar eine Art von Lösung sein kann, in den meisten Fällen aber nur eine mittelmäßige. Nur ist oftmals das mittlere oder obere Management seltsam stolz auf die in Excel, Word oder PowerPoint zusammengeklöppelten Lösungen.

Und an dieser Stelle schließt KI eben nahtlos an: Sie produziert zuverlässig mittelmäßige Ergebnisse. In einer Welt, die sich an diese Mittelmäßigkeit gewöhnt hat, reicht das auch vollkommen – zumal wir mittlerweile ja auch wissen, dass immer mehr Jobs inhärent „sinnlos“ sind – Stichwort: Bullshit Jobs.

So passiert dann genau das, was Ted Chiang in seinem – wie immer sehr lesenswerten – Artikel Why A.I. Isn’t Going to Make Art beschreibt:

We are entering an era where someone might use a large language model to generate a document out of a bulleted list, and send it to a person who will use a large language model to condense that document into a bulleted list. Can anyone seriously argue that this is an improvement?

Die Antwort darauf ist einfach: Nein.