Aufmerksamkeit reichtSo funktionieren Sprach-KIs vom Typ „Transformer“
Erstpublikation in: c't 11/2022
Publikationsdatum:
|
![]() |

Zusammenfassungen
Nicht jede KI wird schlauer, wenn man sie auf gigantische Ausmaße aufbläst – der Textgenerator GPT-3 hingegen schon. Wir zeigen, wie die dahinter liegende Transformer-Technik funktioniert.
Von Klappentext im Text Aufmerksamkeit reicht (2022)
Dieser Zeitschriftenartikel erwähnt ...
![]() Personen KB IB clear | Aidan N. Gomez , Dirk Hecker , Llion Jones , Lukasz Kaiser , Pina Merkert , Gerhard Paaß , Niki Parmar , Illia Polosukhin , Noam Shazeer , Andrea Trinkwalder , Jakob Uszkoreit , Ashish Vaswani | ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Begriffe KB IB clear | ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Bücher |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Texte |
|
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Chat-GPT, facebook, Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, Langzeitgedächtnis |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
2 Erwähnungen 
- Skalierungshypothese vs. Neurosymbolik - Welche nächsten Schritte muss die KI-Forschung gehen? (Pina Merkert, Philipp Bongartz) (2022)
- Das müssen Sie über KI wissen - c't 11/2024 (2024)
- Die Säulen der Moderne (Jan Mahn)
- Die Säulen der Moderne (Jan Mahn)
Volltext dieses Dokuments
![]() | ![]() ![]() ![]() ![]() ![]() |
Anderswo suchen 
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.