/ en / Traditional / mobile

Beats Biblionetz - Begriffe

Filterblase

Dieses Biblionetz-Objekt existiert erst seit September 2017. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconSynonyme

Filterblase, filter bubble, Echokammer, echo chamber

iconDefinitionen

Allgemeiner gesagt, im ganzen Internet besteht das Risiko der Fragmentierung in Tausende kleiner »Informationskokons«, Echokammern, in denen nur die Nachrichten und Meinungen von Gleichgesinnten ankommen und wo die einzige Zeitung die Daily Me (der Ich-Anzeiger) ist.
Von Timothy Garton Ash im Buch Redefreiheit (2016)
Der Internetaktivist Eli Pariser spricht von einer „Filterblase“: Unsere Computer „lernen“ durch unser Klickverhalten und unsere Sucheingaben, was wir „wirklich wollen“ und schränken bei Suchanfragen die Ergebnisse, die sie uns liefern, und damit letztlich auch unsere Weltsicht immer weiter ein.
Von Norbert Peter im Buch Mailbox voll, Akku leer - Müssen wir jetzt reden? (2014)
The basic code at the heart of the new Internet is pretty simple.The new generation of Internet filters looks at the things you seem to like — the actual things you’ve done, or the things people like you like — and tries to extrapolate. They are prediction engines, constantly creating and refining a theory of who you are and what you’ll do and want next. Together, these engines create a unique universe of information for each of us — what I’ve come to call a filter bubble — which fundamentally alters the way we encounter ideas and information.
Von Eli Pariser im Buch The Filter Bubble (2011) auf Seite 9
Der Grundcode des neuen Internets ist recht simpel. Die neue Generation der Internetfilter schaut sich an, was Sie zu mögen scheinen – wie Sie im Netz aktiv waren oder welche Dinge oder Menschen Ihnen gefallen – und zieht entsprechende Rückschlüsse. Prognosemaschinen entwerfen und verfeinern pausenlos eine Theorie zu Ihrer Persönlichkeit und sagen voraus, was Sie als Nächstes tun und wollen. Zusammen erschaffen diese Maschinen ein ganz eigenes Informationsuniversum für jeden von uns – das, was ich die Filter Bubble nenne – und verändern so auf fundamentale Weise, wie wir an Ideen und Informationen gelangen.
Von Eli Pariser im Buch The Filter Bubble (2011) auf Seite 17
Dominik PetkoWenn die Suchmaschine ein persönliches Login ermöglicht, dann können bei der Suche sogar Informationen aus dem Nutzerprofil des Suchenden berücksichtigt werden. Dies führt einerseits zu genaueren Suchanfragen, andererseits wird immer intransparenter, aufgrund welcher Kriterien bestimmte Suchergebnisse zustande kommen. Dass Suchende auf diese Weise eher Informationen zu sehen bekommen, die ihren Interessen und Meinungen entsprechen, verhindert, dass durch Internetsuche wirklich Neues entdeckt wird. Dieses Phänomen wird heute unter dem Stichwort »Filterblase« (»filter bubble«) sehr kritisch gesehen (Pariser, 2011).
Von Dominik Petko im Buch Einführung in die Mediendidaktik (2014) im Text Digitale Lern- und Unterrichtsmedien auf Seite 51
Algorithmen entscheiden darüber, welche Informationen uns wie präsentiert werden. Die Kriterien, nach denen die Auswahl erfolgt, sind allein den Betreibern der entsprechenden Plattformen bekannt. Vielfach werden mit den immer zahlreicheren Daten persönliche Profile gebildet, aus denen die Sirenenserver unsere vermeintlichen Interessen ableiten. Das Ergebnis ist eine »Filterblase«, eine Art virtueller Käfig, in dem wir in unseren Haltungen bestärkt werden und in dem wir im Wesentlichen mit Menschen kommunizieren, die uns mehr oder weniger ähnlich sind. Statt einer gibt es viele »Öffentlichkeiten«, im Extremfall so viele, wie es Nutzer gibt.
Von Peter Schaar im Buch Das digitale Wir (2015)
Bruce SchneierViele Unternehmen passen das, was man sieht, an das jeweilige Nutzerprofil an: Google Search, Yahoo News, sogar Onlinezeitungen wie die New York Times. Das ist ein Riesengeschäft. Der erste Eintrag bei einem Google-Suchergebnis bekommt ein Drittel der Klicks und wer nicht auf der ersten Ergebnisseite steht, existiert praktisch nicht. Das hat zur Folge, dass das Internet, das man sieht, zunehmend auf die eigenen Interessen laut persönlichem Profil zugeschnitten ist. Dies führt wiederum zu einem Phänomen, das der Politaktivist Eli Pariser als “Filterblase” bezeichnet hat: ein auf die eigenen Vorlieben optimiertes Internet, in dem man jede Meinung, mit der man nicht übereinstimmt, vermeiden kann
Von Bruce Schneier im Buch Data and Goliath (2015)
Der Ausdruck filter bubble stammt von dem Autor Eli Pariser, der selbst bei der Website Upworthy arbeitet, die virale Nachrichten in sozialen Netzwerken verbreitet. Anders als bei traditionellen Medien wie einer Zeitung oder einem Fernsehsender, die uns ein mehr oder weniger diverses Programm präsentieren, servieren uns die Algorithmen von Facebook, Google und Co. zunehmend nur noch das, was uns schon in der Vergangenheit gefallen hat. Etwas vereinfacht ausgedrückt hieße das für politische Nachrichten: Linke lesen nur noch Beiträge von anderen Linken und Artikel aus linkslastigen Medien, für die Rechten ist es umgekehrt. Jeder lebt in einer Blase, die ihm Tag für Tag die eigene Weltsicht bestätigt – und das ist schlecht für die Demokratie, weil die vom Austausch konträrer Meinungen lebt. Parisers Buch Filter Bubble. Wie wir im Internet entmündigt werden machte seine Gedanken populär.
Von Christoph Dröser im Buch Total berechenbar (2016)
Oliver BendelDer Begriff der Filter Bubble meint die Personalisierung bei Websites und Apps mit Hilfe von Algorithmen, die den Informationsbedarf des Benutzers voraussagen und entsprechende Seiten, Texte und Bilder (nicht) aufrufen bzw. ein- oder ausblenden. Eli Pariser hat den Begriff in seinem Buch „The Filter Bubble: What the Internet Is Hiding from You“ von 2011 (dt. Titel „Filter Bubble: Wie wir im Internet entmündigt werden“, publiziert 2012) geprägt. Verwandt ist der Begriff der Informationsblase.
Die Filter Bubble ist ein typisches Phänomen sozialer Netzwerke. Diese neigen dazu, einen „ideologischen Rahmen“, wie Pariser es in seinem Buch nennt, zu schaffen, ein informationelles Gefängnis. Die Algorithmenethik kann sich mit der Moral der Algorithmen beschäftigen oder – in anderer Ausprägung – mit den Auswirkungen solcher Einschränkungen auf das Wohl, die Entwicklung und die Entscheidungsfreiheit des Menschen.
Von Oliver Bendel im Buch 300 Keywords Informationsethik (2016) auf Seite 73

iconBemerkungen

Bruce SchneierDas klingt vielleicht erst einmal gar nicht so schlimm, aber im großen Maßstab ist es das. Niemand möchte in einer Gesellschaft leben, in der jeder nur das liest, was seine bestehenden Ansichten bestätigt, wo es keine spontanen Begegnungen mehr gibt, die uns beleben, durcheinanderbringen, infrage stellen und belehren
Von Bruce Schneier im Buch Data and Goliath (2015)
Kathrin PassigSascha LoboIn der Diskussion werden ziemlich unterschiedliche Themen zusammen abgehandelt: Parisers These von einer Einengung unserer Wahrnehmung durch die «Filter Bubble», die Kritik an Empfehlungsalgorithmen (von denen es wiederum mehr als nur eine Sorte gibt), die Kritik an der Google-Personalisierung sowie die Kritik daran, nach welchen Kriterien Facebook seinen Nutzern bestimmte Beiträge sichtbarer präsentiert als andere.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille
Kathrin PassigSascha LoboEli Parisers Beschäftigung mit der Filterbubble begann mit der Feststellung, dass Facebook ihm immer weniger Updates seiner konservativen Freunde anzeigte, weil er ihre Links seltener anklickte oder teilte. Aus dieser Aussage kann man aber auch einen ganz anderen Schluss ziehen als Pariser: Der Autor wäre gern ein weltoffener, vielseitig interessierter Mensch und folgt daher zunächst auch ein paar Konservativen. Das Interesse geht aber dann doch wieder nicht so weit, dass er deren Links tatsächlich anklicken wollte, geschweige denn die verlinkten Beiträge lesen.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 278
Kathrin PassigSascha LoboDie Auswertung unseres Verhaltens durch Filter- und Empfehlungsalgorithmen stimmt nicht immer mit unserer Selbstwahrnehmung überein. Wer jahrelang Mainstreamtitel bei Amazon gekauft hat, der bekommt auch welche empfohlen, und wer nie auf die Facebookupdates konservativer Freunde reagiert, bei dem geht der Algorithmus mit einem gewissen Recht davon aus, dass das Interesse an dieser Person oder ihren Ge sprächsthemen so groß nicht sein kann. Facebook blendet das aus, womit wir uns weniger beschäftigen, und macht damit schlicht ein vorhandenes Verhaltensmuster sichtbar. Klagen über das Ergebnis sind Klagen darüber, dass Selbstbild und Wirklichkeit auseinanderklaffen.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 278
Philippe WampflerWir erhalten, kurz gesagt, nur die Informationen, mit denen wir schon rechnen. Das unerwartete Finden, das Entdecken von Neuigkeiten entfällt, weil uns unsere Tools so gut kennen. Die engsten Verbindungen gehen wir zudem mit Menschen ein, die unsere Sicht der Welt teilen und uns ebenfalls so nahe sind, dass sie uns diejenigen Informationen zusenden, die unserem Erwartungshorizont entsprechen. Zusammen mit der psychologischen Einsicht des Confirmation Bias, dass wir den Informationen mehr vertrauen, die bestätigen, was wir schon vermuten oder zu wissen glauben, besteht so die Gefahr, dass wir unser Weltbild in Social Media zementieren anstatt es einer Prüfung auszusetzen, es zu erweitern, zu verfeinern.
Von Philippe Wampfler im Buch Facebook, Blogs und Wikis in der Schule (2013) im Text Wie Lehrpersonen Social Media nutzen können auf Seite 113
Kathrin PassigSascha LoboAus seiner kleinen, dunklen Informationshöhle zu entkommen, ist dank Internet zumindest theoretisch viel einfacher als früher. «Nie war weniger aufgezwungene Bubble», wie Felix Neumann in seinem Blog unter fxneumann.de schreibt, «früher zu meinen Schulzeiten, also nicht wesentlich länger als 10 Jahre her, als wir zuhause nur die Badischen Neuesten Nachrichten hatten, es in Kirrlach keine taz zu kaufen gab, und mein Deutschlehrer seine gelesenen Zeitungen für uns in die Schulbibliothek gelegt hat – das war Bubble!» In Zeitungen, Buchhandlungen, Bibliotheken und im Radio konnte aus Zeit- und Platzgründen schon immer nur ein kleiner Teil der kulturellen Produktion berücksichtigt werden. Auch Reiseführer sind eine klassische Filterbubble mit erheblichen Folgen. Technisch gesehen ist es durch das Netz viel leichter geworden, sich mit anderen Positionen auseinanderzusetzen. Das macht es schwieriger zu rechtfertigen, warum wir es nicht tun.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 279
Kathrin PassigSascha LoboAuch die heute vorgebrachten Argumente, die eine internetverursachte Wahrnehmungseinengung an die Wand malen, haben weniger mit konkreten Problemen als mit anekdotischen Erfahrungen zu tun. [...] Das alles muss nicht heißen, dass die Skeptiker unrecht haben. Wo heute noch kein konkretes Problem besteht, kann morgen eines auftauchen. Auf jeden Fall aber deutet das Missverhältnis zwischen der Intensität der Debatte und der Spärlichkeit konkreter Belege darauf hin, dass es ein Bedürfnis nach der Auseinandersetzung gibt. Das Konzept der Filterbubble und der verallgemeinernde Begriff «Algorithmus» sind Henkel, an denen wir verschiedene abstrakte Probleme zu greifen versuchen: den Widerwillen gegen heimliche Beeinflussung und Eingriffe in die eigene Autonomie. Das Misstrauen gegenüber bestimmten Autoritäten bei gleichzeitigem Wunsch nach anderen, verlässlicheren. Und die Ahnung, dass auch das eigene Gehirn womöglich voreingenommene Filtersysteme einsetzt.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 269
Of course, to some extent we’ve always consumed media that appealed to our interests and avocations and ignored much of the rest. But the filter bubble introduces three dynamics we’ve never dealt with before.
  1. First, you’re alone in it. A cable channel that caters to a narrow interest (say, golf ) has other viewers with whom you share a frame of reference. But you’re the only person in your bubble. In an age when shared information is the bedrock of shared experience, the filter bubble is a centrifugal force, pulling us apart.
  2. Second, the filter bubble is invisible. Most viewers of conservative or liberal news sources know that they’re going to a station curated to serve a particular political viewpoint. But Google’s agenda is opaque. Google doesn’t tell you who it thinks you are or why it’s showing you the results you’re seeing. You don’t know if its assumptions about you are right or wrong—and you might not even know it’s making assump tions about you in the first place. My friend who got more investment-oriented information about BP still has no idea why that was the case— she’s not a stockbroker. Because you haven’t chosen the criteria by which sites filter information in and out, it’s easy to imagine that the information that comes through a filter bubble is unbiased, objective, true. But it’s not. In fact, from within the bubble, it’s nearly impossible to see how biased it is.
  3. Finally, you don’t choose to enter the bubble. When you turn on Fox News or read The Nation, you’re making a decision about what kind of filter to use to make sense of the world. It’s an active process, and like putting on a pair of tinted glasses, you can guess how the editors’ leaning shapes your perception. You don’t make the same kind of choice with personalized fi lters. They come to you—and because they drive up profi ts for the Web sites that use them, they’ll become harder and harder to avoid.
Von Eli Pariser im Buch The Filter Bubble (2011) auf Seite 10

iconVerwandte Objeke

icon
Verwandte Begriffe
(Cozitation)
Nudging, facebook, PersonalisierungPersonalization, Algorithmusalgorithm, big databig data

iconHäufig co-zitierte Personen

Eli Pariser Eli
Pariser
Tim Wu Tim
Wu
Clay Shirky Clay
Shirky
John Brockman John
Brockman
Evgeny Morozov Evgeny
Morozov
Jaron Lanier Jaron
Lanier
Yochai Benkler Yochai
Benkler
Geert Lovink Geert
Lovink
Jeff Jarvis Jeff
Jarvis
Frank Schirrmacher Frank
Schirrmacher
Ken Auletta Ken
Auletta
Blake Masters Blake
Masters
Joel Garreau Joel
Garreau
Brittany Wood Brittany
Wood
Mark S. Rea Mark S.
Rea
Barbara Plitnick Barbara
Plitnick
Mariana G. Figueiro Mariana G.
Figueiro
Steven Levy Steven
Levy
Siva Vaidhyanathan Siva
Vaidhyanathan
David M. Berry David M.
Berry
Manuel Castells Manuel
Castells
Nicholas G. Carr Nicholas G.
Carr
Andrew Keen Andrew
Keen
Barry Wellman Barry
Wellman
James Barrat James
Barrat

iconStatistisches Begriffsnetz Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

Diese Grafik fensterfüllend anzeigen als Pixelgrafik (PNG) Vektorgrafik (SVG)

iconZitationsgraph

Diese Grafik fensterfüllend anzeigen als Pixelgrafik (PNG) Vektorgrafik (SVG)

iconErwähnungen Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.

Verweise auf Filterblase 1442
2017