Ein reizbarer BotKI im Stress: Die wundersame Emotionalität des Bing Chat
André Kramer
Publikationsdatum:
|
|
Diese Seite wurde seit 1 Jahr inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Der Chatbot von Microsofts Suchmaschine Bing nutzt die gleiche Technik, die auch hinter ChatGPT steckt, um einen Dialog zu führen. Die erste Version hatte Probleme: Trat man ihr zu nahe, reagierte sie ärgerlich, gestand ihre Liebe oder sogar beides. Microsoft schränkte den Dienst nach wenigen Tagen ein und arbeitet seither daran. Die Frage bleibt, woher die Emotionen kamen. Eine Spurensuche.
Von Klappentext im Text Ein reizbarer Bot (2023) Dieser Zeitschriftenartikel erwähnt ...
Begriffe KB IB clear | Bing Chat / Sydney , Chat-GPT , Emoji , Emotionenemotions , Feedback (Rückmeldung)Feedback , Generative Pretrained Transformer 3 (GPT-3) , Google , Halluzination , Künstliche Intelligenz (KI / AI)artificial intelligence , reinforcement learning , Schmerzpain , Softwareherstellersoftware company , Statistikstatistics , Stressstress , Suchmaschinesearch engine , Trauer |
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Machine-Learning-Systeme (GMLS), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, Intelligenz, supervised learning, unsupervised learning |
Tagcloud
Volltext dieses Dokuments
Ein reizbarer Bot: Artikel als Volltext (: , 887 kByte; : ) |
Anderswo suchen
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Er hat Dieser Zeitschriftenartikel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.