SoekiaGPT - ein didaktisches SprachmodellZu finden in: ibis 1/1, 2023
|
|
Zusammenfassungen
Statistische Sprachmodelle, insbesondere Textgeneratoren
wie ChatGPT, haben in letzter Zeit
große Aufmerksamkeit erregt. Künstliche Intelligenz
ist auch ein Thema im Unterricht und die
kritische Auseinandersetzung sollte ein Verständnis
der grundlegenden Funktionsweisen
umfassen. Sprachmodelle wie ChatGPT oder
Bard sind jedoch komplexe Informatiksysteme
und basieren auf riesigen Dokumentensammlungen
und massiver Rechenleistung. Die Lernumgebung
SoekiaGPT nimmt eine Reihe
didaktischer Vereinfachungen vor und ermöglicht
Schülerinnen und Schülern so einen Blick
unter die Motorhaube von statistischen Sprachmodellen
zu werfen und mit einem selbst
gebauten Modell zu experimentieren.
Von Michael Hielscher in der Zeitschrift ibis 1/1 (2023) im Text SoekiaGPT - ein didaktisches Sprachmodell Dieser wissenschaftliche Zeitschriftenartikel erwähnt ...
Dieser wissenschaftliche Zeitschriftenartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Hochschule, Intelligenz, Textgeneratoren-Verbot |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
1 Erwähnungen
- DELFI 2024 (Sandra Schulz, Natalie Kiesler) (2024)
- A project-based AI and Data Education Concept for STEM Teacher Education in Teaching-Learning-Labs (Moritz Kreinsen, Maimon Thiems, Sandra Sprenger, Sandra Schulz 0001) (2024)
Anderswo finden
Volltext dieses Dokuments
SoekiaGPT - ein didaktisches Sprachmodell: Artikel als Volltext (: , 1457 kByte; : ) |
Anderswo suchen
Beat und dieser wissenschaftliche Zeitschriftenartikel
Beat hat Dieser wissenschaftliche Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.