Schon wieder ChapGPT. Der Hype um das Large Language Model scheint grundsätzlich vorbei. Der Chatbot hat deutlich von seiner Strahlkraft verloren. ChatGPT wurde in unseren Alltag integriert. Oder eben nicht. Jedenfalls ist es ziemlich ruhig um die OpenAI-KI geworden. Das ist auch gut so. Wäre gut so, würde sich nicht langsam eine eigenwillige Praxis in journalistischen Texten ausbreiten.
Plötzlich werden von ChatGPT generierte Texte unter Anführungszeichen gesetzt. Grundsätzlich nicht ganz falsch, reklamieren doch die VerfasserInnen derartige Passagen nicht als ihr geistiges Eigentum. Bedenklicher erscheint hingegen ein anderes Phänomen, das in Kombination mit der oben beschriebenen Praxis auftritt. Denn den vermeintlichen direkten Reden werden plötzlich Formulierungen und Wortkombinationen zur Seite gestellt, die üblicherweise mit Menschen in Verbindung gebracht werden. Da heißt es beispielsweise „sagt ChatGPT“ oder „erklärt ChatGPT“.
Das hat eine neue Qualität. Das ist bedenklich.
Anders als beispielsweise bei Informationen und Texten, die aus Wikipedia-Einträgen oder Suchmaschinen-Abfragen stammen, werden durch derartige Formulierungen der Künstlichen Intelligenz Eigenschaften und Charakterzüge zugeschrieben, die sie A nicht hat und die B eindeutig uns Menschen vorbehalten sein sollten. ChatGPT erklärt uns nichts. ChatGPT sagt uns nichts. ChatGPT berechnet Wahrscheinlichkeiten und übersetzt diese in Texte.
Wikipedia-Einträge und Google-Ergebnisse wurden und werden in journalistischen Beiträgen selten als solche ausgewiesen und so gut wie nie unter Anführungszeichen gesetzt. Bestenfalls wird das Online-Lexikon als Quelle genannt. Doch auch das passiert (viel zu) selten. Schon gar nicht wurde und wird entsprechenden Passagen ein „sagt Wikipedia“ oder etwas Ähnliches nach- oder vorangestellt. Diese Quellen sind und bleiben somit ganz klar als technische Lösungen und – wenn man so will – als Maschinen konnotiert. Nichts anderes als ein Werkzeug.
Hingegen sagt „erklärt ChatGPT“ nicht nur etwas über die Arbeitsweise der oder des jeweiligen JournalistIn aus – und wäre diesbezüglich vielleicht sogar wünschenswert und sinnvoll, sondern es vermenschlicht die KI zu sehr, verleiht einer daten- und algorithmusbasierten Lösung humane Züge.
Alles nur Einzelfälle. Noch. Möglicherweise auch nur unbedacht und in der Eile hingeschrieben. Aber ChatGPT als Kumpel, als Informations-Buddy? Brauchen wir nicht.