Challenging systematic prejudicesAn Investigation into Bias Against Women and Girls in Large Language Models
Publikationsdatum:
|
|
Dieses Biblionetz-Objekt existiert erst seit Juli 2024.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
This study explores biases in three significant large language models (LLMs): OpenAI’s GPT-2
and ChatGPT, along with Meta’s Llama 2, highlighting their role in both advanced decision-making
systems and as user-facing conversational agents. Across multiple studies, the brief reveals how
biases emerge in the text generated by LLMs, through gendered word associations, positive or
negative regard for gendered subjects, or diversity in text generated by gender and culture.
The research uncovers persistent social biases within these state-of-the-art language models, despite ongoing efforts to mitigate such issues. The findings underscore the critical need for continuous research and policy intervention to address the biases that exacerbate as these technologies are integrated across diverse societal and cultural landscapes. The emphasis on GPT-2 and Llama 2 being open-source foundational models is particularly noteworthy, as their widespread adoption underlines the urgent need for scalable, objective methods to assess and correct biases, ensuring fairness in AI systems globally.
Von UNESCO United Nations Educational, Scientific and Cultural Org. im Text Challenging systematic prejudices (2024) The research uncovers persistent social biases within these state-of-the-art language models, despite ongoing efforts to mitigate such issues. The findings underscore the critical need for continuous research and policy intervention to address the biases that exacerbate as these technologies are integrated across diverse societal and cultural landscapes. The emphasis on GPT-2 and Llama 2 being open-source foundational models is particularly noteworthy, as their widespread adoption underlines the urgent need for scalable, objective methods to assess and correct biases, ensuring fairness in AI systems globally.
Dieser Text erwähnt ...
Dieser Text erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule, Künstliche Intelligenz (KI / AI) |
Tagcloud
Volltext dieses Dokuments
Challenging systematic prejudices: Artikel als Volltext (: , 3143 kByte; : ) |
Anderswo suchen
Beat und dieser Text
Beat hat Dieser Text erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser Text einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.