/ en / Traditional / help

Beats Biblionetz - Texte

Aufmerksamkeit reicht

So funktionieren Sprach-KIs vom Typ „Transformer“
Erstpublikation in: c't 11/2022
Publikationsdatum:
Erste Seite des Textes (PDF-Thumbnail)

iconZusammenfassungen

Nicht jede KI wird schlauer, wenn man sie auf gigantische Ausmaße aufbläst – der Textgenerator GPT-3 hingegen schon. Wir zeigen, wie die dahinter liegende Transformer-Technik funktioniert.
Von Klappentext im Text Aufmerksamkeit reicht (2022)

iconDieser Zeitschriftenartikel erwähnt ...


Personen
KB IB clear
Aidan N. Gomez , Dirk Hecker , Llion Jones , Lukasz Kaiser , Pina Merkert , Gerhard Paaß , Niki Parmar , Illia Polosukhin , Noam Shazeer , Andrea Trinkwalder , Jakob Uszkoreit , Ashish Vaswani

Begriffe
KB IB clear
Datendata , deepfake , DeepL , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 3 (GPT-3) , Google , GPT-2 , Informationsverarbeitunginformation processing , Künstliche Intelligenz (KI / AI)artificial intelligence , Kurzzeitgedächtnisshort-term memory , Modellemodel , Musterpattern , Neuronneuron , Neuronales Netzneural network , Sprachelanguage , Statistikstatistics , Zahlennumber , Zufall
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2016 local  c't 6/20164, 7, 1, 2, 5, 7, 3, 8, 8, 2, 3, 9 1749441
2018 local  Neuronale Denkfehler3, 2, 1, 6, 7, 3, 9, 8, 4, 1, 2, 7 3437399
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
2016 local  Netzgespinste (Andrea Trinkwalder) 2, 4, 4, 3, 4, 4, 8, 9, 5, 1, 1, 5 1195384
2018 local  Statistik ist nicht Denken (Pina Merkert) 6, 1, 2, 1, 4, 2, 4, 5, 8, 3, 1, 4 2184299
2022 local web  KI-Co-Autor (Pina Merkert) 1, 1, 1, 1, 1, 1, 3, 6, 8, 3, 1, 4 18475
2022 local web  Sprachversteher (Dirk Hecker, Gerhard Paaß) 3, 4, 4, 6, 3, 3, 10, 5, 2, 2, 1, 7 247127
2023 local web  Attention Is All You Need (Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin) 18600

iconDieser Zeitschriftenartikel erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

iconTagcloud

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconVolltext dieses Dokuments

Auf dem WWW Aufmerksamkeit reicht: Artikel als Volltext (lokal: PDF, 625 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieser Zeitschriftenartikel

Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.