Ganz schön vermessenÜber das knifflige Benchmarking großer Sprachmodelle
René Peinl, Andrea Trinkwalder
Zu finden in:
|
|
Zusammenfassungen
Große Sprachmodelle wie ChatGPT und Bard können viel, weil sie mit nahezu dem gesamten Weltwissen trainiert wurden. Allerdings ist es schwierig herauszufinden, was sie wirklich auf dem Kasten haben. Einer, der das versucht, ist René Peinl von der Hochschule Hof.
Von Klappentext in der Zeitschrift c't 21/2023 (2023) im Text Ganz schön vermessen Dieser Zeitschriftenartikel erwähnt ...
Begriffe KB IB clear | Chat-GPT , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 4 (GPT-4) |
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), GMLS & Bildung, GMLS & Schule, Künstliche Intelligenz (KI / AI) |
Tagcloud
Volltext dieses Dokuments
Ganz schön vermessen: Artikel als Volltext (: , 299 kByte; : ) |
Anderswo suchen
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.