/ en / Traditional / help

Beats Biblionetz - Texte

Technischer Hintergrund: Große Sprachmodelle (LLM)

Fabian Lang
Zu finden in: Künstliche Intelligenz in Seminar- und Abschlussarbeiten (Seite 7 bis 25), 2025 local web 
Erste Seite des Textes (PDF-Thumbnail)
Dieses Biblionetz-Objekt existiert erst seit November 2025. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconZusammenfassungen

Künstliche Intelligenz in Seminar- und AbschlussarbeitenDas Kapitel bietet einen grundlegenden Überblick über die Funktionsweise großer Sprachmodelle (Large Language Models=LLMs) und verortet sie systematisch innerhalb des breiteren Feldes der Künstlichen Intelligenz. Es erläutert zentrale Begriffe wie Tokenisierung, Embedding, Attention und Sampling und erklärt, wie Modelle wie ChatGPT sprachliche Ausgaben auf Basis statistischer Wahrscheinlichkeiten erzeugen. Die zugrunde liegende Transformer-Architektur wird schrittweise beschrieben und in ihrer Relevanz für Textverarbeitung eingeordnet. Darüber hinaus werden zentrale technische Begrenzungen wie Kontextlänge, Halluzinationen, Bias und mangelndes Weltverständnis thematisiert. Es wird verdeutlicht, dass es sich bei LLMs trotz hoher Ausdrucksfähigkeit weiterhin um schwache KI handelt, da ihnen bewusstes Verstehen fehlt. Ziel des Kapitels ist es, Studierenden ein technisches Grundverständnis für die Funktionsweise dieser Systeme zu vermitteln – als Grundlage für eine reflektierte und verantwortungsvolle Nutzung im wissenschaftlichen Arbeiten, auch ohne technisches Vorwissen. Dazu gehört die Fähigkeit, zentrale Konzepte nachzuvollziehen, die Leistungsfähigkeit einzuordnen und systembedingte Grenzen kritisch zu erkennen.
Von Fabian Lang im Buch Künstliche Intelligenz in Seminar- und Abschlussarbeiten (2025) im Text Technischer Hintergrund: Große Sprachmodelle (LLM)

iconDieses Kapitel erwähnt ...


Personen
KB IB clear
George E. P. Box , Aidan N. Gomez , Llion Jones , Lukasz Kaiser , Peter Norvig , Niki Parmar , Illia Polosukhin , Stuart Russell , Noam Shazeer , Jakob Uszkoreit , Ashish Vaswani

Aussagen
KB IB clear
Machine Learning kann bestehende Vorurteile/Ungerechtigkeiten verstärken/weitertragen

Begriffe
KB IB clear
AGI , Bewusstseinconsciousness , bias , Chat-GPT , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Halluzination , Handelnacting , Intelligenzintelligence , Kontextcontext , Mensch , Problemproblem , Verantwortungresponsability , Wissenschaftscience
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2012 local  Künstliche Intelligenz (Stuart Russell, Peter Norvig) 1, 7, 3, 5, 4, 3, 3, 7, 6, 2, 5, 14 4 16 14 401
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
1976 local web  Science and Statistics (George E. P. Box) 1, 7, 3, 8, 5, 3, 1, 3, 1, 4, 4, 11 2 8 11 278
2023 local web  Attention Is All You Need (Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin) 2, 5, 4, 1, 8, 8, 3, 3, 8, 1, 6, 15 36 6 15 121

iconDieses Kapitel erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

iconTagcloud

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconAnderswo finden

icon

iconVolltext dieses Dokuments

Auf dem WWW Technischer Hintergrund: Große Sprachmodelle (LLM): Artikel als Volltext @ Springer (lokal: PDF, 870 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieses Kapitel

Beat hat Dieses Kapitel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieses Kapitel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.