More than a Glitch |
|
Dieses Biblionetz-Objekt existiert erst seit August 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
When technology reinforces inequality, it’s not just a glitch—it’s a signal that we need to redesign our systems to create a more equitable world. The word “glitch” implies an incidental error, as easy to patch up as it is to identify. But what if racism, sexism, and ableism aren’t just bugs in mostly functional machinery—what if they’re coded into the system itself? In the vein of heavy hitters such as Safiya Umoja Noble, Cathy O’Neil, and Ruha Benjamin, Meredith Broussard demonstrates in More Than a Glitch how neutrality in tech is a myth and why algorithms need to be held accountable. Broussard, a data scientist and one of the few Black female researchers in artificial intelligence, masterfully synthesizes concepts from computer science and sociology. She explores a range of examples: from facial recognition technology trained only to recognize lighter skin tones, to mortgage-approval algorithms that encourage discriminatory lending, to the dangerous feedback loops that arise when medical diagnostic algorithms are trained on insufficiently diverse data. Even when such technologies are designed with good intentions, Broussard shows, fallible humans develop programs that can result in devastating consequences. Broussard argues that the solution isn’t to make omnipresent tech more inclusive, but to root out the algorithms that target certain demographics as “other” to begin with. With sweeping implications for fields ranging from jurisprudence to medicine, the ground-breaking insights of More Than a Glitch are essential reading for anyone invested in building a more equitable future.
Dieses Buch erwähnt ...
![]() Personen KB IB clear | Carl T. Bergstrom , Safiya Umoja Noble , Cathy O’Neil , Jevin D. West | ||||||||||||||||||||||||||||||||||||
![]() Aussagen KB IB clear | Machine Learning kann bestehende Vorurteile/Ungerechtigkeiten verstärken/weitertragen | ||||||||||||||||||||||||||||||||||||
![]() Begriffe KB IB clear | Algorithmus algorithm
, Computer computer
, Daten data
, Datenbank database
, GenderGender
, gerrymandering
, Gesichtserkennung face recognition
, Informatikcomputer science
, Künstliche Intelligenz (KI / AI) artificial intelligence
, Maschine machine
, Rassismus
, Rückkopplung / Regelkreisfeedback loop
, Zukunft future
| ||||||||||||||||||||||||||||||||||||
![]() Bücher |
|
Dieses Buch erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Digitalisierung, Informatik-Didaktik, Informatik-Unterricht (Fachinformatik), Negative Rückkoppelung, Positive Rückkoppelung / Teufelskreis |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
1 Erwähnungen 
- Artificial intelligence and illusions of understanding in scientific research (Lisa Messer, M. J. Crockett) (2024)

Volltext dieses Dokuments
Anderswo suchen 
Beat und dieses Buch
Beat hat dieses Buch erst in den letzten 6 Monaten in Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. (das er aber aus Urheberrechtsgründen nicht einfach weitergeben darf). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

Algorithmus
Computer
Daten
Datenbank
gerrymandering
Gesichtserkennung
Künstliche Intelligenz (KI / AI)
Maschine
Rassismus
Zukunft



Biblionetz-History