Trifft ChatGPT Falschaussagen, entstammen sie demselben Vorgang wie schlüssige Texte
IMAGO/Angga Budhiyanto

Wenn man davon spreche, dass KI-Systeme wie ChatGPT in ihrem Output "halluzinieren" würden, vermittle man den Eindruck, sie würden etwas zum Ausdruck bringen, das sie wahrgenommen haben: Dies schreiben drei Forschende der philosophischen Fakultät der Universität Glasgow in ihrer Studie "ChatGPT is Bullshit". Aufgrund dieser Implikationen sprechen sie sich klar gegen diese Ausdrucksweise aus. Stattdessen bieten Michael Townsen Hicks, James Humphries und Joe Slater eine andere Bezeichnung für den Vorgang an: "Bullshitting".

Die Studie, die im Journal Ethics and Information Technology publiziert wurde, gibt einen genaueren Einblick in die Tücken des Halluzinationsbegriffs: Wenn jemand halluziniere, habe er eine nicht standardisierte Wahrnehmungserfahrung, nehme aber nichts Tatsächliches aus der Umwelt wahr. Durch die Anwendung dieses Begriffs würden die Large-Language-Modelle vermenschlicht. So könnten entstehende Probleme dem Halluzinieren der KI zugeschrieben werden, und Programmierende könnten sich ihrer eigenen Verantwortung entledigen. Außerdem nehme der Begriff an, dass die KI beim Halluzinieren, also der Ausgabe von nicht sinnhaften Aussagen, von ihrem Weg abkomme. Stattdessen finde aber genau derselbe Prozess statt, wenn ihre Aussagen wahr seien.

"ChatGPT is Bullshit"

Nun zum Bullshitting. Im Mittelpunkt der Publikation der schottischen Forschenden steht das Werk On Bullshit des Philosophen Harry Frankfurt. Die Studie fasst zusammen, was mit dem Titel gemeint ist: jede Äußerung, die der Sprecher in Gleichgültigkeit gegenüber der Wahrheit seiner Äußerung macht. Schnell wird noch eine Unterscheidung in "Hard Bullshit" und "Soft Bullshit" getroffen. Bei Ersterem besteht eine Absicht zur Irreführung, im zweiten Fall steht keine Agenda dahinter.

Die drei Wissenschafter ordnen ChatGPT mindestens in die Schublade des "Soft Bullshitting" ein. Es habe nicht die Intention, Wahrheiten zu vermitteln, das einzige Ziel sei es, Text herauszugeben, der menschengemacht wirkt. Sprich: "Wenn es sich nicht um einen Akteur handelt, dann kann es weder eine Einstellung zur Wahrheit haben, noch die Zuhörer über seine Agenda (oder vielleicht besser gesagt die seiner Nutzenden) täuschen“, ist in der Studie zu lesen. Das "mindestens" rührt daher, dass die Forschenden anerkennen, dass man unter der Berücksichtigung umstrittener philosophischer Annahmen über die Natur der Intention auch die Kategorie des "Hard Bullshit" heranziehen könnte. So oder so, resümieren sie, handele es sich jedoch um Bullshit.

Der Mensch als Auftraggeber

Die Variable, die immer wieder auf die Bühne trete, sei der Mensch, der sich den Text ausspucken lässt. Die Person, die sich eine Hausarbeit oder eine Rede von der KI schreiben lässt, baut laut den Wissenschaftern darauf, dass der Text wirkt, als wäre er von einem interessierten und aufmerksamen Akteur geschrieben. Letztendlich lasse sich ChatGPT also am treffendsten als "Bullshit Machine" beschreiben. Der eigentliche Bullshitter ist gemäß den Wissenschafter die Person dahinter, der die Wahrheit hinter dem Text egal sei, aber die Lesenden von dieser überzeugen wolle.

Und auch diejenigen, die Entscheidungen über den Umgang mit KI träfen, reagierten aufgrund von Überzeugungen. So würden politische Entscheidungsträger und die Öffentlichkeit ihr Urteil nicht aufgrund eines tieferen technischen Verständnisses, sondern auf Basis der oftmals metaphorischen Art und Weise, in der die Fähigkeiten der Systeme beschrieben werden, fällen. Genau deshalb schreiben die drei Forschenden der richtigen Benennung von Vorgängen eine besondere Wichtigkeit zu: Ansonsten könne es zu der falschen Annahme kommen, die KI vermittele etwas, an das sie glaube. (hlk, 11.6.24.)