/ en / Traditional / help

Beats Biblionetz - Texte

Ganz schön vermessen

Über das knifflige Benchmarking großer Sprachmodelle
René Peinl, Andrea Trinkwalder
Zu finden in:
Erste Seite des Textes (PDF-Thumbnail)

iconZusammenfassungen

Große Sprachmodelle wie ChatGPT und Bard können viel, weil sie mit nahezu dem gesamten Weltwissen trainiert wurden. Allerdings ist es schwierig herauszufinden, was sie wirklich auf dem Kasten haben. Einer, der das versucht, ist René Peinl von der Hochschule Hof.
Von Klappentext in der Zeitschrift c't 21/2023 (2023) im Text Ganz schön vermessen

iconDieser Zeitschriftenartikel erwähnt ...


Begriffe
KB IB clear
Chat-GPT , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 4 (GPT-4)

iconDieser Zeitschriftenartikel erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

iconTagcloud

iconVolltext dieses Dokuments

Auf dem WWW Ganz schön vermessen: Artikel als Volltext (lokal: PDF, 299 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieser Zeitschriftenartikel

Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.