/ en / Traditional / help

Beats Biblionetz - Aussagen

Textgeneratoren erleichtern das Generieren von Fake-News massiv

Dieses Biblionetz-Objekt existiert erst seit Dezember 2022. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconBemerkungen

Döbeli Honegger sagt, es werde wichtiger denn je, Schülerinnen und Schülern Medienkompetenz beizubringen. ChatGPT und alle anderen Text- Roboter, die jetzt in der Pipeline sind, werden zu einer Flut an geschriebenen Informationen führen. Fake News werden immer seriöser daherkommen. In der Schule müsse man lernen, wie ein KI-Text als solcher zu erkennen sei. Das müsse «Teil der Allgemeinbildung» werden, sagt der Dozent.
Von Geri Holdener im Text Professor der PH Schwyz testet Textroboter und gibt Tipps für Schulen (2023)
Indeed, new state-of-the-art artificial intelligence (AI) technologies can now generate text that mimics the style and substance of real news stories while overcoming the bandwidth limits that face human-generated text. If these models enable malicious actors to generate and publish crediblesounding news stories at scale, then the prospect for misinformation, defined as “false or misleading information,” 3 is high: the volume of inauthentic media could balloon, and the ease of text synthesis might further enable the coordinated hyper-targeting of articles to individual groups.
Von Sarah Kreps, Miles McCain, Miles Brundage im Text All the News that’s Fit to Fabricate (2020)
We found that people can be manipulated by AI-generated text such that they cannot discern real from synthetic content. The narrower consequence of a manipulable public is that misinformation campaigns have a ripe target. Malicious actors can easily produce AI-generated content and generate confusion about the truth, undermining trust in democratic institutions such as the media. More generally, however, the ease of manipulation suggests avenues for misinformation not in service of political persuasion but instead in sowing confusion and distrust. Following Kant’s belief in “a common sense as the necessary condition of the universal communicability of our knowledge," the erosion of common reference points has the potential to undermine the basis of coherent public policy.
Von Sarah Kreps, Miles McCain, Miles Brundage im Text All the News that’s Fit to Fabricate (2020)
Douglas RushkoffAI’s ability to generate deep fake videos and new stories doesn’t frighten meeither. It just puts us back where we were when we used to get our newsfrom printed text. Anyone can put anything into the same font, print it out,and pass it around. The veracity of a news story has nothing to do with itsproduction value and everything to do with the integrity of the institutionproducing it. That’s why news organizations are supposed to work within asystem of “journalistic standards and practices.” They teach this stuff injournalism school, and places like BBC (and sometimes CNN) employ it. Yourwillingness to consider the ideas in this piece is dependent on your trust inme, a human being with a reputation at stake and, hopefully, a track recordof at least attempting to write truthfully.
Von Douglas Rushkoff im Text The Medium is the Message (2022)
A third category of risk involves bad actors taking advantage of the ability of large LMs to produce large quantities of seemingly coherent texts on specific topics on demand in cases where those deploying the LM have no investment in the truth of the generated text. These include prosaic cases, such as services set up to ‘automatically’ write term papers or interact on social media,23 as well as use cases connected to promoting extremism. For example, McGuffie and Newhouse [80] show how GPT-3 could be used to generate text in the persona of a conspiracy theorist, which in turn could be used to populate extremist recruitment message boards. This would give such groups a cheap way to boost recruitment by making human targets feel like they were among many like-minded people.
Von Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell im Text On the Dangers of Stochastic Parrots (2021)

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.