Aufmerksamkeit reichtSo funktionieren Sprach-KIs vom Typ „Transformer“
Erstpublikation in: c't 11/2022
Publikationsdatum:
|
![]() |
Diese Seite wurde seit 1 Jahr inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Nicht jede KI wird schlauer, wenn man sie auf gigantische Ausmaße aufbläst – der Textgenerator GPT-3 hingegen schon. Wir zeigen, wie die dahinter liegende Transformer-Technik funktioniert.
Von Klappentext im Text Aufmerksamkeit reicht (2022)
Dieser Zeitschriftenartikel erwähnt ...
![]() Personen KB IB clear | Aidan N. Gomez , Dirk Hecker , Llion Jones , Lukasz Kaiser , Pina Merkert , Gerhard Paaß , Niki Parmar , Illia Polosukhin , Noam Shazeer , Andrea Trinkwalder , Jakob Uszkoreit , Ashish Vaswani | ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Begriffe KB IB clear | Daten data
, deepfake
, DeepL
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, Generative Pretrained Transformer 3 (GPT-3)
, Google
, GPT-2
, Informationsverarbeitunginformation processing
, Künstliche Intelligenz (KI / AI) artificial intelligence
, Kurzzeitgedächtnisshort-term memory
, Modelle model
, Musterpattern
, Neuron neuron
, Neuronales Netz neural network
, Sprache language
, Statistik statistics
, Zahlen number
, Zufall
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Bücher |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Texte |
|
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Chat-GPT, facebook, Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, Langzeitgedächtnis |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
2 Erwähnungen 
- Skalierungshypothese vs. Neurosymbolik - Welche nächsten Schritte muss die KI-Forschung gehen? (Pina Merkert, Philipp Bongartz) (2022)
- Das müssen Sie über KI wissen - c't 11/2024 (2024)
- Die Säulen der Moderne (Jan Mahn)
- Die Säulen der Moderne (Jan Mahn)
Volltext dieses Dokuments
![]() | Aufmerksamkeit reicht: Artikel als Volltext ( : , 625 kByte; : ) |
Anderswo suchen 
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Daten
deepfake
DeepL
Generative Machine-Learning-Systeme (GMLS)
Generative Pretrained Transformer 3 (GPT-3)
Google
GPT-2
Künstliche Intelligenz (KI / AI)
Modelle
Neuron
Neuronales Netz
Sprache
Statistik
Zahlen
Zufall






, 625 kByte;
)
Biblionetz-History