SprachversteherGPT-3 & Co. texten überzeugend, aber nicht faktentreu
Dirk Hecker, Gerhard Paaß
Erstpublikation in: c't 9/2022
Publikationsdatum:
|
|
Diese Seite wurde seit 1 Jahr inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Tiefe neuronale Sprachmodelle wie GPT-3 schreiben ansprechende Texte, garnieren sie aber oft mit erfundenen Fakten. Jüngste Modelle überprüfen ihre Inhalte selbst und könnten so schon bald Hausaufgaben oder News generieren. Ein Einblick in die Entwicklung.
Von Klappentext im Text Sprachversteher (2022) Dieser Zeitschriftenartikel erwähnt ...
Begriffe KB IB clear | Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 3 (GPT-3) , Sprachelanguage |
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Chat-GPT, Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
2 Erwähnungen
- Aufmerksamkeit reicht - So funktionieren Sprach-KIs vom Typ „Transformer“ (Pina Merkert) (2022)
- c't KI-Praxis (2023)
- Chatbots reinlegen - Wie man KI-Sprachgeneratoren entlarvt (Arne Grävemeyer) (2023)
Volltext dieses Dokuments
Sprachversteher: Artikel als Volltext (: , 796 kByte; : ) |
Anderswo suchen
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.