Textgeneratoren erleichtern das Generieren von Fake-News massiv | ![]() |
BiblioMap 
Bemerkungen
döbeli honegger prognostiziert, infolge
der neuen tools werde die informationsflut
ansteigen. auch die flut an fakenews
dürfte zunehmen.
Von Jochen Zenthöfer im Text Wie ChatGPT die Schule verändern wird (2023) 
Döbeli Honegger sagt, es werde wichtiger denn je, Schülerinnen und Schülern Medienkompetenz beizubringen. ChatGPT und alle anderen Text- Roboter, die jetzt in der Pipeline sind, werden zu einer Flut an geschriebenen Informationen führen. Fake News werden immer seriöser daherkommen. In der Schule müsse man lernen, wie ein KI-Text als solcher zu erkennen sei. Das müsse «Teil der Allgemeinbildung» werden, sagt der Dozent.
Von Geri Holdener im Text Professor der PH Schwyz testet Textroboter und gibt Tipps für Schulen (2023) Indeed, new state-of-the-art artificial intelligence (AI) technologies can now generate text that
mimics the style and substance of real news stories while overcoming the bandwidth limits that face
human-generated text. If these models enable malicious actors to generate and publish crediblesounding
news stories at scale, then the prospect for misinformation, defined as “false or misleading
information,” 3 is high: the volume of inauthentic media could balloon, and the ease of text synthesis
might further enable the coordinated hyper-targeting of articles to individual groups.
Von Sarah Kreps, Miles McCain, Miles Brundage im Text All the News that’s Fit to Fabricate (2020) 
Selbstverständlich werden Fake News einfacher und perfekter herstellbar. Wir müssen uns darauf einstellen, dass es immer schwieriger wird, Texte, Bilder und Videos als Fälschungen zu entlarven. Obwohl Allgemeinbildung und Medienkompetenz bis zu einem gewissen Grad bei der Erkennung helfen, müssen wir uns darauf vorbereiten, dass es zur sogenannten Lügner-Dividende kommt: Wenn alles fälschbar scheint, so nimmt auch die Glaubwürdigkeit seriöser Quellen ab, was für die Demokratie gefährlich ist.
We found that people can be manipulated by AI-generated text such that they cannot discern real from synthetic content. The narrower consequence of a manipulable public is that misinformation campaigns have a ripe target. Malicious actors can easily produce AI-generated content and generate confusion about the truth, undermining trust in democratic institutions such as the media. More generally, however, the ease of manipulation suggests avenues for misinformation not in service of political persuasion but instead in sowing confusion and distrust. Following Kant’s belief in “a common sense as the necessary condition of the universal communicability of our knowledge," the erosion of common reference points has the potential to undermine the basis of coherent public policy.
Von Sarah Kreps, Miles McCain, Miles Brundage im Text All the News that’s Fit to Fabricate (2020) 
A third category of risk involves
bad actors taking advantage of the ability of large LMs to produce
large quantities of seemingly coherent texts on specific topics on
demand in cases where those deploying the LM have no investment
in the truth of the generated text. These include prosaic cases, such
as services set up to ‘automatically’ write term papers or interact on
social media,23 as well as use cases connected to promoting extremism.
For example, McGuffie and Newhouse [80] show how GPT-3
could be used to generate text in the persona of a conspiracy theorist,
which in turn could be used to populate extremist recruitment
message boards. This would give such groups a cheap way to boost
recruitment by making human targets feel like they were among
many like-minded people.
Von Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell im Text On the Dangers of Stochastic Parrots (2021) 
6 Vorträge von Beat mit Bezug
- ChatGPT - der iPhone-Moment für KI?
Klausur PHSZ, Oberägeri, 14.02.2023 - ChatGPT und die (informatische (Schul-))Bildung
Ausschuss "Bildung, Fachkräfte und Diversität" von digitalswitzerland, 07.03.2023 - Schule, Digitalisierung und die Rolle der Informatik
Landesinformatiktag Hamburg und Schleswig-Holstein, 25.03.2023 - ChatGPT - der iPhone-Moment des maschinellen Lernens
NMS Bern, 07.06.2023 - KVreform GPT
Kaufmännische Berufsschule Schwyz, 05.07.2023 - BBZGPT
Berufsbildungszentrum Goldau, 17.08.2023
Zitationsgraph
Zeitleiste
24 Erwähnungen 
- Umgang mit generativen KI-Modellen - Ein Handlungsleitfaden (Thüringer Ministerium für Bildung. Jugend und Sport)
- All the News that’s Fit to Fabricate - AI-Generated Text as a Tool of Media Misinformation (Sarah Kreps, Miles McCain, Miles Brundage) (2020)
- On the Dangers of Stochastic Parrots - Can Language Models Be Too Big? (Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell) (2021)
- The Medium is the Message - The real and imagined dangers of AI (Douglas Rushkoff) (2022)
- Der Geldgenerator (Heike Buchter) (2023)
- Professor der PH Schwyz testet Textroboter und gibt Tipps für Schulen (Geri Holdener) (2023)
- ChatGPT & Schule - Einschätzungen der Professur „Digitalisierung und Bildung“ der Pädagogischen Hochschule Schwyz (Beat Döbeli Honegger) (2023)
- Wie ChatGPT die Schule verändern wird (Jochen Zenthöfer) (2023)
- The A.I. Dilemma (Tristan Harris, Aza Raskin) (2023)
- info7 1/2023 - Das Magazin für Medien, Archive und Information (2023)
- Pause Giant AI Experiments - An Open Letter (Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak, Yuval Noah Harari) (2023)
- The ChatGPT King Isn’t Worried, but He Knows You Might Be (Cade Metz) (2023)
- ChatGPT kommt wie ein Erdbeben über uns (Doris Weßels, Dirk Reelfs, Laurén Haziak) (2023)
- Wie nah sind wir an der Superintelligenz? (Eva Wolfangel) (2023)
- Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem (Marie-José Kolly) (2023)
- Sparks of Artificial General Intelligence - Early experiments with GPT-4 (Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, Yi Zhang) (2023)
- ChatGPT und andere Computermodelle zur Sprachverarbeitung - Grundlagen, Anwendungspotenziale und mögliche Auswirkungen (Steffen Albrecht) (2023)
- «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (Cade Metz) (2023)
- «Wie erkennen wir, wenn ein System wie GPT die Welt versteht?» (Sam Altman, Jakob von Lindern, Jochen Wegner) (2023)
- «Angstmacherei ist nicht der Weg» (Andreas Krause, Joachim Laukenmann) (2023)
- Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (Katharina Zweig, Rudi Novotny, Stefan Schmitt) (2023)
- Wie klug ist künstliche Intelligenz? - Die 50 wichtigesten Fragen und Antworten (Hans-Martin Bürki-Spycher, Beat Döbeli Honegger, Mascha Kurpicz-Briki, Roman Schister) (2023)
- Guidance for generative AI in education and research (Fengchun Miao, Wayne Holmes) (2023)
- Algorithmen texten Slogans für Schweizer Politiker (Georg Humbel) (2023)