Aufmerksamkeit reichtSo funktionieren Sprach-KIs vom Typ „Transformer“
Pina Merkert
Erstpublikation in: c't 11/2022
Publikationsdatum:
|
![]() |
Zusammenfassungen
Nicht jede KI wird schlauer, wenn man sie auf gigantische Ausmaße aufbläst – der Textgenerator GPT-3 hingegen schon. Wir zeigen, wie die dahinter liegende Transformer-Technik funktioniert.
Von Klappentext im Text Aufmerksamkeit reicht (2022)
Dieser Zeitschriftenartikel erwähnt ...
![]() Personen KB IB clear | Aidan N. Gomez, Dirk Hecker, Llion Jones, Lukasz Kaiser, Pina Merkert, Gerhard Paaß, Niki Parmar, Illia Polosukhin, Noam Shazeer, Andrea Trinkwalder, Jakob Uszkoreit, Ashish Vaswani | ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Begriffe KB IB clear | ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Bücher |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Texte |
|
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Chat-GPT, facebook, Generative Pretrained Transformer 4 (GPT-4), Intelligenz, Langzeitgedächtnis |
Tagcloud
Zitationsgraph
1 Erwähnungen 
- Skalierungshypothese vs. Neurosymbolik - Welche nächsten Schritte muss die KI-Forschung gehen? (Pina Merkert, Philipp Bongartz) (2022)
Volltext dieses Dokuments
![]() | ![]() ![]() ![]() ![]() ![]() |
Anderswo suchen 
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.