Klein, aber feinWeniger Parameter, solide Leistung: Wie kompakte Sprachmodelle die Giganten herausfordern
René Peinl
Erstpublikation in: c't 26/23
Publikationsdatum:
|
![]() |
Diese Seite wurde seit mehr als 9 Monaten inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Eine Zeitlang kannte die Parameterzahl
großer Sprachmodelle
nur eine Richtung: steil nach
oben. Mehr Parameter bedingen
mehr und hochwertigere Fähigkeiten,
so die Überzeugung.
Doch 2023 schlug die Stunde
der mittelgroßen Sprach-KIs:
Sie sind genügsam – und
erstaunlich konkurrenzfähig.
Von Klappentext im Text Klein, aber fein (2023)
Dieser Zeitungsartikel erwähnt ...
Dieser Zeitungsartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | GMLS & Bildung, GMLS & Schule, supervised learning, unsupervised learning |
Tagcloud
Volltext dieses Dokuments
![]() | Klein, aber fein: Artikel als Volltext ( : , 347 kByte; : ) |
Anderswo suchen 
Beat und dieser Zeitungsartikel
Beat hat Dieser Zeitungsartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


AlphaGo
Chain of Thought
Chat-GPT
Generative Machine-Learning-Systeme (GMLS)
Generative Pretrained Transformer 3 (GPT-3)
Generative Pretrained Transformer 4 (GPT-4)
Google
Hardware
Künstliche Intelligenz (KI / AI)
LaMDA (Language Model for Dialogue Applications)
Moore's law
Neuron
Neuronales Netz
Perceptron
, 347 kByte;
)
Biblionetz-History