/ en / Traditional / help

Beats Biblionetz - Begriffe

Googles Gorilla-Problem

Diese Seite wurde seit 1 Jahr inhaltlich nicht mehr aktualisiert. Unter Umständen ist sie nicht mehr aktuell.

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconBemerkungen

Google, for example, tweaked its image-recognition algorithm in 2015 after the system mislabelled an African American couple as gorillas.
Von Kate Crawford, Ryan Calo im Text There is a blind spot in AI research (2016)
Neuronale DenkfehlerGoogle ringt übrigens bis heute um eine Lösung des Problems: Die Kategorien „Gorilla“ und „Affe“ sind seit drei Jahren deaktiviert; stattdessen zeigt der Konzern ein pädagogisch wertvolles Erklärvideo, das um Verständnis für das Phänomen der Stichprobenverzerrung wirbt.
Von Andrea Trinkwalder in der Zeitschrift Neuronale Denkfehler (2018) im Text Irren ist künstlich
Gerd GigerenzerVielleicht haben Sie von der beschämenden Geschichte gehört, dass Googles Bildklassifikationssystem ein dunkelhäutiges Paar als »Gorillas« eingeordnet hat. Die Ingenieure reagierten sofort, aber nicht so, wie man hätte meinen können. Statt sich mit dem Kern des Problems auseinanderzusetzen, entschieden sie sich für die stillschweigende Lösung, die Kategorien »Gorilla«, »Schimpanse« und »Affe« zu entfernen. Seither werden Bilder von Affen nicht als solche identifiziert. Tiefe neuronale Netze sind so komplex geworden, dass sie sich nicht mehr ohne Weiteres verstehen und korrigieren lassen.
Von Gerd Gigerenzer im Buch Klick (2021) im Text Sind selbstfahrende Autos zum Greifen nah?
2015 beschwerte sich der Softwareentwickler Jacky‌ Alciné auf Twitter darüber, dass die Bilderkennung von Google Photos ihn und seine Freundin als Gorillas bezeichnete. Wie genau es zu dem Fehler kam, ist nicht klar. Aber wir wissen, dass Googles Machine-Learning-Algorithmus eine starre, fest umrissene Verlustfunktion hatte, die jedem Fehler die gleiche Strafe (oder die gleichen Kosten) zuwies. Mit anderen Worten: Die Strafe dafür, eine Person als Gorilla zu bezeichnen, war exakt so hoch wie die Strafe dafür, einen Norfolk Terrier als Norwich Terrier zu klassifizieren. Natürlich war das weder Googles wahre Verlustfunktion noch die seiner Nutzer, wie das darauffolgende PR-Desaster zeigte.
Von Stuart Russell im Text Natürliche und künstliche Intelligenz
Neuronale DenkfehlerBei Googles berühmtem Katzen - detektor hat das perfekt funktioniert, aber schon bei Fotos von Menschen fingen die Probleme an. Zwar herrscht im Internet wahrlich kein Mangel an Bildern, die Menschen zeigen. Der Haken ist, dass in dieser riesigen Sammlung Abbildungen von hellhäutigen Männern dominieren und Farbige stark unterrepräsentiert sind. Nutzt ein Anbieter nun beispielsweise die ersten 100.000 Ergebnisse der Bildersuche „Mensch“ und trainiert damit sein künstliches neuronales Netz, wird dieses die helle Hautfarbe fälschlicherweise als eines der wichtigsten Merkmale des Menschen wahrnehmen. Trainiert man das System auch auf die Erkennung von Gorillas, wird das Netz eine schwarze Gesichtsfarbe als sehr starkes Indiz für einen Gorilla werten. Die „rassistische“ KI ist geboren.
Von Andrea Trinkwalder in der Zeitschrift Neuronale Denkfehler (2018) im Text Irren ist künstlich
Selbst wenn Google es versucht hätte, wäre es extrem schwierig gewesen, all diese Werte vorab festzulegen. Die richtige Herangehensweise hätte darin bestanden, sich die Unsicherheit bei den tatsächlichen Kosten einer Fehlklassifikation bewusst zu machen und einen Lern- und Klassifikationsalgorithmus zu entwickeln, der hinreichend empfindlich gegenüber den Kosten und deren Unsicherheit ist. Ein solcher Algorithmus würde dem Google-Entwickler gelegentlich Fragen stellen, zum Beispiel diese: »Ist es schlimmer, einen Hund als Katze einzustufen oder eine Person als Tier?« Und wenn ein gewisses Maß an Unsicherheit hinsichtlich der Kosten einer Fehlklassifikation besteht, würde sich ein solcher Algorithmus gegebenenfalls weigern, einige Bilder zu beschriften.
Anfang 2018 wurde berichtet, dass Google Photos sich weigert, Fotos mit Gorillas zu klassifizieren. Als dem System ein sehr deutliches Bild eines Gorillas mit zwei Gorillababys vorgelegt wurde, erwiderte es: »Hm, bin mir nicht sicher …«
Von Stuart Russell im Text Natürliche und künstliche Intelligenz

iconVerwandte Objeke

icon
Verwandte Begriffe
(co-word occurance)

iconStatistisches Begriffsnetz  Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.