ChatGPT Isn’t ‘Hallucinating.’ It’s Bullshitting.Carl T. Bergstrom, C. Brandon Ogbunu
Publikationsdatum:
|
![]() |
Diese Seite wurde seit 1 Jahr inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Artificial intelligence models will make mistakes. We need more accurate language to describe them.
Von Carl T. Bergstrom, C. Brandon Ogbunu im Text ChatGPT Isn’t ‘Hallucinating.’ It’s Bullshitting. (2023) The language we use to discuss the mistakes AI has made and will continue to make is critically important — not to spur symbolic protest against modern technology or fear-mongering over a pending “war against the machines,” but to sharpen the way we think about many sorts of complicated interactions between human users and AI algorithms that seem inevitable. If we wait too long, the flaws may become too big to fix, and our lives beset by problems that we don’t have the right words to describe.
Von Carl T. Bergstrom, C. Brandon Ogbunu im Text ChatGPT Isn’t ‘Hallucinating.’ It’s Bullshitting. (2023)
Dieses Blogposting erwähnt ...
![]() Personen KB IB clear | Carl T. Bergstrom , Daniel C. Dennett , Harry G. Frankfurt , OpenAI , Jevin D. West | ||||||||||||||||||||||||||||||||||||
![]() Aussagen KB IB clear | Generative Machine-Learning-Systeme erleichtern das Generieren von Bullshit | ||||||||||||||||||||||||||||||||||||
![]() Begriffe KB IB clear | Algorithmus algorithm
, Bewusstseinconsciousness
, Biologie biology
, Bullshit
, Chat-GPT
, Chemie chemistry
, Fehlvorstellungen / misconceptions
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, Google
, Künstliche Intelligenz (KI / AI) artificial intelligence
, Mobiltelefon mobile phone
, Wahrheit truth
| ||||||||||||||||||||||||||||||||||||
![]() Bücher |
| ||||||||||||||||||||||||||||||||||||
![]() Texte |
|
Dieses Blogposting erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Fehlvorstellungen beim Programmieren, Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Volltext dieses Dokuments
![]() | ChatGPT Isn’t ‘Hallucinating.’ It’s Bullshitting.: Artikel als Volltext ( : , 196 kByte; : ) |
Anderswo suchen 
Beat und dieses Blogposting
Beat hat Dieses Blogposting während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Algorithmus
Biologie
Bullshit
Chat-GPT
Chemie
Generative Machine-Learning-Systeme (GMLS)
Google
Künstliche Intelligenz (KI / AI)
Mobiltelefon
Wahrheit



, 196 kByte;
)
Biblionetz-History