/ en / Traditional / help

Beats Biblionetz - Begriffe

Recurrent Neural Networks (RNN)

Diese Seite wurde seit mehr als 7 Monaten inhaltlich nicht mehr aktualisiert. Unter Umständen ist sie nicht mehr aktuell.

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconSynonyme

Recurrent Neural Networks, RNN

iconDefinitionen

Recurrent Neural Networks introduce different type of cells — Recurrent cells. The first network of this type was so called Jordan network, when each of hidden cell received it’s own output with fixed delay — one or more iterations. Apart from that, it was like common FNN.
Von Andrew Tch im Text The mostly complete chart of Neural Networks, explained (2017)
Herausforderungen der künstlichen IntelligenzEine weitere bedeutsame Erweiterung sind RNN. Während CNN besonders gut mit Daten umgehen können, die in (zwei) Dimensionen angeordnet sind, sind RNN auf sequentielle Daten spezialisiert. Daher sind diese Modelle besonders erfolgreich bei der Textverarbeitung. Eine der erfolgreichsten Implementationen von RNN ist das sog. long short-term memory (LSTM), welches am Istituto Dalle Molle di Studi sull'Intelligenza Artificiale (IDSIA) in Lugano entwickelt wurde. Die darauf basierenden Algorithmen werden heute in rund 3 Milliarden Smartphones täglich benutzt und betreiben u.a. die Spracherkennung und Übersetzung von Google sowie die Übersetzung bei Facebook.
Von Interdepartementale Arbeitsgruppe künstliche Intelligenz im Buch Herausforderungen der künstlichen Intelligenz (2019) im Text Anhang 2: Maschinelles Lernen

iconBemerkungen

This type of NNs is mainly used then context is important — when decisions from past iterations or samples can influence current ones. The most common examples of such contexts are texts — a word can be analysed only in context of previous words or sentences.
Von Andrew Tch im Text The mostly complete chart of Neural Networks, explained (2017)

iconVerwandte Objeke

icon
Verwandte Begriffe
(co-word occurance)
Long / Short Term Memory (LSTM)(0.25)

iconHäufig co-zitierte Personen

iconStatistisches Begriffsnetz  Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.