Textgeneratoren erleichtern das Generieren von Bullshit | ![]() |

BiblioMap 
Bemerkungen
Das heisst: kaum mehr Kosten, um das Internet mit Desinformation zu fluten. Mit Verschwörungserzählungen, die klingen, als wäre der Absender die «Washington Post» oder «Le Monde» oder ein lokales Medienhaus mit der entsprechenden dialektalen Färbung. Oder eine beliebte Autorin. Kaum mehr Kosten auch, um Werbung – das Geschäftsmodell vieler Unternehmen, die Sprachmodelle trainieren – noch enger auf die Leserin zuzuschneiden. Oder politisch gefärbte Hassrede. Oder Phishing-Mails. Oder was auch immer die Fantasie künftiger Trolls und Trickbetrüger hervorbringen wird.
Von Marie-José Kolly im Text Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem (2023) A third category of risk involves
bad actors taking advantage of the ability of large LMs to produce
large quantities of seemingly coherent texts on specific topics on
demand in cases where those deploying the LM have no investment
in the truth of the generated text. These include prosaic cases, such
as services set up to ‘automatically’ write term papers or interact on
social media,23 as well as use cases connected to promoting extremism.
For example, McGuffie and Newhouse [80] show how GPT-3
could be used to generate text in the persona of a conspiracy theorist,
which in turn could be used to populate extremist recruitment
message boards. This would give such groups a cheap way to boost
recruitment by making human targets feel like they were among
many like-minded people.
Von Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell im Text On the Dangers of Stochastic Parrots (2021)
Vorträge von Beat mit Bezug
Zitationsgraph
5 Erwähnungen 
- On the Dangers of Stochastic Parrots - Can Language Models Be Too Big? (Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell) (2021)
- Learning, Media and Technology, Volume 48, Issue 1 (2023) (2023)
- Schneller als gedacht - ChatGPT zwischen wirtschaftlicher Effizienz und menschlichem Wunschdenken (Philipp Schönthaler) (2023)
- ChatGPT Isn’t ‘Hallucinating.’ It’s Bullshitting. (Carl T. Bergstrom, C. Brandon Ogbunu) (2023)
- Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem (Marie-José Kolly) (2023)