Klein, aber feinWeniger Parameter, solide Leistung: Wie kompakte Sprachmodelle die Giganten herausfordern
René Peinl
Erstpublikation in: c't 26/23
Publikationsdatum:
|
|
Dieses Biblionetz-Objekt existiert erst seit November 2023.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Eine Zeitlang kannte die Parameterzahl
großer Sprachmodelle
nur eine Richtung: steil nach
oben. Mehr Parameter bedingen
mehr und hochwertigere Fähigkeiten,
so die Überzeugung.
Doch 2023 schlug die Stunde
der mittelgroßen Sprach-KIs:
Sie sind genügsam – und
erstaunlich konkurrenzfähig.
Von Klappentext im Text Klein, aber fein (2023) Dieser Zeitungsartikel erwähnt ...
Dieser Zeitungsartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Intelligenz, supervised learning, Textgeneratoren & Bildung, Textgeneratoren & Schule |
Tagcloud
Volltext dieses Dokuments
Klein, aber fein: Artikel als Volltext (: , 347 kByte; : ) |
Anderswo suchen
Beat und dieser Zeitungsartikel
Beat hat Dieser Zeitungsartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.