/ en / Traditional / help

Beats Biblionetz - Aussagen

Large Language Models benötigen viel Energie

Dieses Biblionetz-Objekt existiert erst seit März 2023. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconBemerkungen

Beat Döbeli HoneggerInsbesondere das erstmalige Training von KI-Sprachgeneratoren ist sehr rechen- und damit energieintensiv. Derzeit wird aber intensiv nach sparsameren Trainingsverfahren geforscht, so dass dieser Aspekt mittelfristig an Bedeutung verlieren könnte.
Von Beat Döbeli Honegger, erfasst im Biblionetz am 10.03.2023
Die neue WeltmachtSupercomputer sind Energiefresser. Ein KI-Modell wie GPT-3 einmalig zu trainieren, verbraucht so viel wie 126 Häuser in Dänemark in einem Jahr oder ein Auto auf 700000 Kilometer. Das haben Forscher der Universität Kopenhagen errechnet. Und weil ein einziger Trainingsdurchgang nicht reicht, muss die Zahl noch multipliziert werden.
Von Patrick Beuth in der Zeitschrift Die neue Weltmacht im Text Sechs Dinge, die man braucht, um eine KI zu bauen (2023)
Die neue WeltmachtDer Alltagsbetrieb in der Cloud verschlingt ebenfalls viel Strom. »Spätestens jetzt, wo mit Programmen wie ChatGPT die Schulhausaufgaben erledigt werden können, ist KI im Alltag der Menschen angekommen, und der Energiebedarf steigt exponentiell«, sagt Christian Eichhorn, Mitgründer und Co-Geschäftsführer der Firma SpiNNcloud Systems, einer Ausgründung der Technischen Universität Dresden.
Von Patrick Beuth in der Zeitschrift Die neue Weltmacht im Text Sechs Dinge, die man braucht, um eine KI zu bauen (2023)
TA SWISS Zentrum für Technikfolgen-AbschätzungIm Hinblick auf die Nachhaltigkeit erfordern grosse Sprachmodelle wie GPT einen hohen Energie-verbrauch für die Berechnungen beim Training und später zum Beantworten der Suchanfragen der Nutzerinnen und Nutzer. Die aktuelle Forschung versucht zwar, energieeffizientere Materialien und Rechnungsmethoden zu entwickeln. Wenn die für diese Anwendungen eingesetzten Server aber nicht mit nachhaltiger Energie betrieben werden, kann ihr CO2-Fussabdruck enorm sein.
Von TA SWISS Zentrum für Technikfolgen-Abschätzung, Laetitia Ramelet im Text ChatGPT – wenn die künstliche Intelligenz schreibt wie ein Mensch (2023)

iconVorträge von Beat mit Bezug

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.