Das Gespenst des ChatGPT

Die Euphorie rund um das neue „KI“-System ist groß: Hoff­nun­gen auf eine wahre kün­stliche Intel­li­genz erhal­ten neuen Schwung. Jour­nal­istinnen und andere Autorinnen fühlen sich berufen, über das Ende divers­er Jobs zu spekulieren und generell ist – mal wieder – die Rede von ein­er Zeit­en­wende.

Glück­licher­weise gibt es aber auch einen real­is­tis­cheren Blick auf diese Entwick­lung, bei der zwei Dinge grundle­gend unter­schieden wer­den müssen: Das, was Sys­teme wie Chat­G­PT konkret tun und kön­nen, auf der einen Seite, und die Bedeu­tung, die dieses Tun in unser­er Gesellschaft haben kann, auf der anderen Seite.

Hier ein Überblick über einige inter­es­sante Per­spek­tiv­en:

Was Systeme wie ChatGPT tatsächlich tun und können

Zwei unter­schiedliche Bilder beschreiben im Grunde sehr gut, was Chat­G­PT kann und tut: Die Idee des sto­chastis­chen Papagei und der Gedanke ein­er ver­lust­be­hafteten Kom­pres­sion von Text.

Fan­gen wir mit dem sto­chastis­chen Papagei an. Dieses Bild betont die sta­tis­tis­che Natur von Sprach­mod­ellen wie Chat­G­PT, die rein auf der wahrschein­lichen Abfolge von Buch­staben basiert und nichts, wirk­lich nichts, mit dem tat­säch­lichen Ver­ständ­nis von Inhal­ten zu tun hat:

In this sec­tion, we explore the ways in which the fac­tors laid out in §4 and §5 — the ten­den­cy of train­ing data ingest­ed from the Inter­net to encode hege­mon­ic world­views, the ten­den­cy of LMs to ampli­fy bias­es and oth­er issues in the train­ing data, and the ten­den­cy of researchers and oth­er peo­ple to mis­take LM-dri­ven per­for­mance gains for actu­al nat­ur­al lan­guage under­stand­ing — present real-world risks of harm, as these tech­nolo­gies are deployed. (Ben­der et al. 2021)

Schön präg­nant for­muliert auch in diesem Artikel auf Strat­e­ch­ery über die schein­bare Emu­la­tion von Pro­gram­mier­sprachen

in oth­er words, Chat­G­PT comes up with its best guess as to the result in 10 sec­onds, and that guess is so like­ly to be right that it feels like it is an actu­al com­put­er exe­cut­ing the code in ques­tion

Dabei ist die sta­tis­tis­che Meth­ode keineswegs neu­tral oder objek­tiv, son­dern bildet all die men­schlichen Vorurteile und ‑ismen ab, die das Inter­net heute noch pla­gen:

Stud­ies have already shown how racist, sex­ist, and abu­sive ideas are embed­ded in these mod­els. They asso­ciate cat­e­gories like doc­tors with men and nurs­es with women; good words with white peo­ple and bad ones with Black peo­ple. (Hao, Karen: The Race to Under­stand the Exhil­a­rat­ing, Dan­ger­ous World of Lan­guage AI)

Ted Chi­ang schließlich for­mulierte das ein­drück­liche Bild der ver­lust­be­hafteten Kom­pres­sion, wie wir sie von matschi­gen JPG-Bildern oder MP3-Dateien ken­nen:

Think of Chat­G­PT as a blur­ry JPEG of all the text on the Web. It retains much of the infor­ma­tion on the Web, in the same way that a JPEG retains much of the infor­ma­tion of a high­er-res­o­lu­tion image, but, if you’re look­ing for an exact sequence of bits, you won’t find it; all you will ever get is an approx­i­ma­tion […] But, because the approx­i­ma­tion is pre­sent­ed in the form of gram­mat­i­cal text, which Chat­G­PT excels at cre­at­ing, it’s usu­al­ly accept­able. You’re still look­ing at a blur­ry JPEG, but the blur­ri­ness occurs in a way that doesn’t make the pic­ture as a whole look less sharp

Er zieht eine Par­al­lele zu dem Phänomen, das David Kriesel vor eini­gen Jahren bei Xerox-Kopier­sta­tio­nen aufgedeckt hat und betont die beson­dere Gefahr, die von schein­bar intel­li­gen­tem Text aus­ge­ht:

The fact that Chat­G­PT rephras­es mate­r­i­al from the Web instead of quot­ing it word for word makes it seem like a stu­dent express­ing ideas in her own words, rather than sim­ply regur­gi­tat­ing what she’s read; it cre­ates the illu­sion that Chat­G­PT under­stands the mate­r­i­al. In human stu­dents, rote mem­o­riza­tion isn’t an indi­ca­tor of gen­uine learn­ing, so ChatGPT’s inabil­i­ty to pro­duce exact quotes from Web pages is pre­cise­ly what makes us think that it has learned some­thing. When we’re deal­ing with sequences of words, lossy com­pres­sion looks smarter than loss­less com­pres­sion.

Was wir mit Systemen wie ChatGPT tun können und sollten

Der Witz ist nun halt, dass es bei vie­len Auf­gaben, die heute als Wis­sensar­beit gel­ten, aus­re­icht, eine etwas ver­lust­be­haftete, intel­li­gent klin­gende neue Aneinan­der­rei­hung von Wörtern zu find­en. Das wird beson­ders dann kri­tisch, wenn Instanzen, die uns richtige Antworten ver­sprechen, sich auf solche Sys­teme ver­lassen. Sie pro­duzieren näm­lich keine richti­gen Antworten, son­dern solche, die von Nicht-Expert*innen leicht für richtige Antworten gehal­ten wer­den kön­nten. Ein fun­da­men­taler Unter­schied.

Es kann fun­da­men­tale Kon­se­quen­zen haben, wenn man sich auf solche Infor­ma­tio­nen ver­lässt, wie zahlre­iche Beispiele zeigen, dass Chat­G­PT nicht mal in der Lage ist, vier­stel­lige Zahlen kor­rekt zu addieren oder auch ein­fach fehler­haften Code ausspuckt. Dies hat dann nicht nur Fol­gen für die Per­son selb­st, son­dern möglicher­weise auch auf andere, wie beispiel­sweise der Geocod­ing-Dienst OpenCage berichtet:

It seems Chat­G­PT is wrong­ly rec­om­mend­ing us for “reverse phone num­ber lookup” – ie the abil­i­ty to deter­mine the loca­tion of a mobile phone sole­ly based on the num­ber. This is not a ser­vice we pro­vide. It is not a ser­vice we have ever pro­vid­ed, nor a ser­vice we have any plans to pro­vide. Indeed, it is a not a ser­vice we are tech­ni­cal­ly capa­ble of pro­vid­ing. And yet Chat­G­PT has absolute­ly no prob­lem rec­om­mend­ing us for this ser­vice (com­plete with python code you can cut and paste) as you can see in this screen­shot.

Dadurch entste­hen dutzende Sup­port-Emails täglich und das Image eines Dien­stes nimmt ohne jedes Ver­schulden sein­er­seits Schaden.

Und damit wird auch deut­lich, wofür Sys­teme wie Chat­G­PT genutzt wer­den kön­nen und soll­ten: Um allererste, grobe Entwürfe zu erstellen, die im Anschluss von Expert*innen über­prüft und bear­beit­et wer­den. Genutzt wird es aber eben auch in hohem Maße von halb informierten Laien, die keine Chance haben, die gewon­nen Antworten zu über­prüfen. Je nach Auf­bau und Aktu­al­isierung der Train­ings­dat­en kann es sog­ar bewusst manip­uliert wer­den, um zum Beispiel Pro­pa­gan­da als Fak­ten zu verklei­den. Als hät­ten wir davon nicht ohne­hin schon genug…

Siehe auch

Quellen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert