ChatGPT is bullshitMichael Townsen Hicks, James Humphries, Joe Slater
Erstpublikation in: Ethics Inf Technol 26, 38
Publikationsdatum:
|
|
Dieses Biblionetz-Objekt existiert erst seit Juni 2024.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Recently, there has been considerable interest in large language models: machine learning systems which produce humanlike
text and dialogue. Applications of these systems have been plagued by persistent inaccuracies in their output; these are
often called “AI hallucinations”. We argue that these falsehoods, and the overall activity of large language models, is better
understood as bullshit in the sense explored by Frankfurt (On Bullshit, Princeton, 2005): the models are in an important
way indifferent to the truth of their outputs. We distinguish two ways in which the models can be said to be bullshitters,
and argue that they clearly meet at least one of these definitions. We further argue that describing AI misrepresentations
as bullshit is both a more useful and more accurate way of predicting and discussing the behaviour of these systems.
Von Michael Townsen Hicks, James Humphries, Joe Slater im Text ChatGPT is bullshit (2024) In this paper, we argue
against the view that when ChatGPT and the like produce
false claims they are lying or even hallucinating, and in
favour of the position that the activity they are engaged in is bullshitting, in the Frankfurtian sense (Frankfurt, 2002,
2005). Because these programs cannot themselves be concerned
with truth, and because they are designed to produce
text that looks truth-apt without any actual concern for truth,
it seems appropriate to call their outputs bullshit.
Von Michael Townsen Hicks, James Humphries, Joe Slater im Text ChatGPT is bullshit (2024) Dieser wissenschaftliche Zeitschriftenartikel erwähnt ...
Personen KB IB clear | Harry G. Frankfurt | ||||||||||||||||||
Aussagen KB IB clear | Generative Machine-Learning-Systeme erleichtern das Generieren von Bullshit | ||||||||||||||||||
Begriffe KB IB clear | Bullshit , Chat-GPT , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Halluzination , Lügelie , machine learning | ||||||||||||||||||
Bücher |
|
Dieser wissenschaftliche Zeitschriftenartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule, Künstliche Intelligenz (KI / AI) |
Tagcloud
Anderswo finden
Volltext dieses Dokuments
ChatGPT is bullshit: Artikel als Volltext (: , 796 kByte; : ) |
Anderswo suchen
Beat und dieser wissenschaftliche Zeitschriftenartikel
Beat hat Dieser wissenschaftliche Zeitschriftenartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser wissenschaftliche Zeitschriftenartikel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.