Komprimierte KIWie Quantisierung große Sprachmodelle verkleinert
René Peinl
Erstpublikation in: c't 2/2025, 10.01.2025
Publikationsdatum:
|
|
Dieses Biblionetz-Objekt existiert erst seit Januar 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Große Sprachmodelle wie ChatGPT benötigen große und teure Server und viel Energie. Man kann sie aber quantisieren, sodass sie mit viel weniger Speicher und Strom auskommen und sogar lokal auf einem Smartphone laufen. Wir erklären, warum quantisierte Modelle viel schneller antworten und trotzdem fast so schlau sind wie die großen Originale.
Von Klappentext im Text Komprimierte KI (2025) Dieser Zeitschriftenartikel erwähnt ...
Begriffe KB IB clear | Chat-GPT , Energie , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Hardwarehardware |
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule, Künstliche Intelligenz (KI / AI) |
Tagcloud
Volltext dieses Dokuments
Komprimierte KI: Artikel als Volltext (: , 461 kByte; : ) | |
Komprimierte KI: Artikel als Volltext (: , 461 kByte; : ) |
Anderswo suchen
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser Zeitschriftenartikel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.