Komprimierte KIWie Quantisierung große Sprachmodelle verkleinert
René Peinl
Erstpublikation in: c't 2/2025, 10.01.2025
Publikationsdatum:
|
![]() |
Diese Seite wurde seit 1 Jahr inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Große Sprachmodelle wie ChatGPT benötigen große und teure Server und viel Energie. Man kann sie aber quantisieren, sodass sie mit viel weniger Speicher und Strom auskommen und sogar lokal auf einem Smartphone laufen. Wir erklären, warum quantisierte Modelle viel schneller antworten und trotzdem fast so schlau sind wie die großen Originale.
Von Klappentext im Text Komprimierte KI (2025)
Dieser Zeitschriftenartikel erwähnt ...
![]() Begriffe KB IB clear | Chat-GPT
, Energie
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, Hardware hardware
|
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule, Künstliche Intelligenz (KI / AI) |
Tagcloud
Volltext dieses Dokuments
![]() | Komprimierte KI: Artikel als Volltext ( : , 461 kByte; : ) |
![]() | Komprimierte KI: Artikel als Volltext ( : , 461 kByte; : ) |
Anderswo suchen 
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Er hat Dieser Zeitschriftenartikel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Chat-GPT
Energie
Generative Machine-Learning-Systeme (GMLS)
Hardware
, 461 kByte;
)
Biblionetz-History