/ en / Traditional / help

Beats Biblionetz - Texte

Dialect prejudice predicts AI decisions about people's character, employability, and criminality

Valentin Hofmann, Pratyusha Ria Kalluri, Dan Jurafsky, Sharese King
Publikationsdatum:
Erste Seite des Textes (PDF-Thumbnail)
Dieses Biblionetz-Objekt existiert erst seit Mai 2024. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconZusammenfassungen

Hundreds of millions of people now interact with language models, with uses ranging from serving as a writing aid to informing hiring decisions. Yet these language models are known to perpetuate systematic racial prejudices, making their judgments biased in problematic ways about groups like African Americans. While prior research has focused on overt racism in language models, social scientists have argued that racism with a more subtle character has developed over time. It is unknown whether this covert racism manifests in language models. Here, we demonstrate that language models embody covert racism in the form of dialect prejudice: we extend research showing that Americans hold raciolinguistic stereotypes about speakers of African American English and find that language models have the same prejudice, exhibiting covert stereotypes that are more negative than any human stereotypes about African Americans ever experimentally recorded, although closest to the ones from before the civil rights movement. By contrast, the language models' overt stereotypes about African Americans are much more positive. We demonstrate that dialect prejudice has the potential for harmful consequences by asking language models to make hypothetical decisions about people, based only on how they speak. Language models are more likely to suggest that speakers of African American English be assigned less prestigious jobs, be convicted of crimes, and be sentenced to death. Finally, we show that existing methods for alleviating racial bias in language models such as human feedback training do not mitigate the dialect prejudice, but can exacerbate the discrepancy between covert and overt stereotypes, by teaching language models to superficially conceal the racism that they maintain on a deeper level. Our findings have far-reaching implications for the fair and safe employment of language technology.
Von Valentin Hofmann, Pratyusha Ria Kalluri, Dan Jurafsky, Sharese King im Text Dialect prejudice predicts AI decisions about people's character, employability, and criminality (2024)

iconDieser Text erwähnt ...


Personen
KB IB clear
Sandhini Agarwal , Dario Amodei , Amanda Askell , Maria Bannert , Emily M. Bender , Christopher Berner , Tom B. Brown , Caitlin Ring Carlson , Mark Chen , Benjamin Chess , Rewon Child , Jack Clark , Daryna Dementieva , Kewal Dhariwal , Prafulla Dhariwal , Frank Fischer , Urs Gasser , Timnit Gebru , Scott Gray , Georg Groh , Stephan Günnemann , Tom Henighan , Ariel Herbert-Voss , Christopher Hesse , Eyke Hüllermeier , Jared Kaplan , Gjergji Kasneci , Enkelejda Kasneci , Gretchen Krueger , Stephan Krusche , Stefan Küchemann , Jochen Kuhn , Gitta Kutyniok , Mateusz Litwin , Benjamin Mann , Sam McCandlish , Angelina McMillan-Major , Tilman Michaeli , Arvind Neelakantan , Claudia Nerdel , OpenAI , Jürgen Pfeffer , Oleksandra Poquet , Alec Radford , Aditya Ramesh , Nick Ryder , Michael Sailer , Girish Sastry , Albrecht Schmidt , Tina Seidel , Kathrin Sessler , Shmargaret Shmitchell , Pranav Shyam , Eric Sigler , Matthias Stadler , Melanie Subbiah , Ilya Sutskever , Jochen Weller , Clemens Winter , Jeffrey Wu , Daniel M. Ziegler

Aussagen
KB IB clear
Machine Learning kann bestehende Vorurteile/Ungerechtigkeiten verstärken/weitertragen

Begriffe
KB IB clear
bias , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Rassismus , Sprachelanguage
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2020 local web  Language Models are Few-Shot Learners (Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Kewal Dhariwal, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei) 8, 2, 1, 2, 4, 6, 8, 7, 6, 3, 2, 8 2948122
2021 local  Hate Speech (Caitlin Ring Carlson) 6, 1, 1, 2, 7, 3, 6, 8, 8, 2, 1, 5 175171
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
2021 local web  On the Dangers of Stochastic Parrots (Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell) 3, 3, 6, 1, 6, 2, 7, 12, 8, 3, 2, 9 37249128
2023 local web  ChatGPT for Good? (Enkelejda Kasneci, Kathrin Sessler, Stefan Küchemann, Maria Bannert, Daryna Dementieva, Frank Fischer, Urs Gasser, Georg Groh, Stephan Günnemann, Eyke Hüllermeier, Stephan Krusche, Gitta Kutyniok, Tilman Michaeli, Claudia Nerdel, Jürgen Pfeffer, Oleksandra Poquet, Michael Sailer, Albrecht Schmidt, Tina Seidel, Matthias Stadler, Jochen Weller, Jochen Kuhn, Gjergji Kasneci) 2, 1, 4, 10, 8, 13, 9, 2, 1, 3, 1, 7 10167104
2023 local web  GPT-4 Technical Report (OpenAI) 131400

iconDieser Text erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

icon
Nicht erwähnte Begriffe
Chat-GPT, GMLS & Bildung

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconVolltext dieses Dokuments

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieser Text

Beat hat Dieser Text erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser Text einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.