Filterblase
Synonyme
Filterblase, filter bubble, Echokammer, echo chamber
Definitionen
Allgemeiner gesagt, im ganzen Internet besteht das Risiko der Fragmentierung in Tausende kleiner »Informationskokons«, Echokammern, in denen nur die Nachrichten und Meinungen von Gleichgesinnten ankommen und wo die einzige Zeitung die Daily Me (der Ich-Anzeiger) ist.
Von Timothy Garton Ash im Buch Redefreiheit (2016) Der Internetaktivist Eli Pariser spricht von einer „Filterblase“: Unsere Computer „lernen“ durch unser Klickverhalten und unsere Sucheingaben, was wir „wirklich wollen“ und schränken bei Suchanfragen die Ergebnisse, die sie uns liefern, und damit letztlich auch unsere Weltsicht immer weiter ein.
Von Norbert Peter im Buch Mailbox voll, Akku leer - Müssen wir jetzt reden? (2014) Das Konzept wurde von Eli Pariser mit
einem Buch im Jahr 2012 populär gemacht.
Auch hier zeigten die US-Wahlen
das eigentliche Ausmass dieser Blase:
Der Algorithmus auf Facebook (und
Google) sorgt dafür, dass Konsumenten
eher jene Beiträge zu sehen bekommen,
die ihnen gefallen könnten. Basis dafür
sind «Likes» und Klicks auf Inhalte,
Folge davon ist, dass der User nur noch
liest, was seinem Weltbild entspricht – er
sich also in einer Blase bewegt.
Von Philipp Loser im Text Kleines Lexikon der Krise (2016) The basic code at the heart of the new Internet is pretty
simple.The new generation of Internet filters looks at the things
you seem to like — the actual things you’ve done, or the things
people like you like — and tries to extrapolate. They are prediction
engines, constantly creating and refining a theory of who
you are and what you’ll do and want next. Together, these
engines create a unique universe of information for each of
us — what I’ve come to call a filter bubble — which fundamentally
alters the way we encounter ideas and information.
Von Eli Pariser im Buch The Filter Bubble (2011) auf Seite 9Der Grundcode des neuen Internets ist recht simpel. Die neue Generation
der Internetfilter schaut sich an, was Sie zu mögen scheinen – wie Sie
im Netz aktiv waren oder welche Dinge oder Menschen Ihnen gefallen –
und zieht entsprechende Rückschlüsse. Prognosemaschinen entwerfen
und verfeinern pausenlos eine Theorie zu Ihrer Persönlichkeit und sagen
voraus, was Sie als Nächstes tun und wollen. Zusammen erschaffen diese
Maschinen ein ganz eigenes Informationsuniversum für jeden von uns –
das, was ich die Filter Bubble nenne – und verändern so auf fundamentale
Weise, wie wir an Ideen und Informationen gelangen.
Von Eli Pariser im Buch The Filter Bubble (2011) auf Seite 17Wenn die Suchmaschine ein persönliches
Login ermöglicht, dann können bei der Suche sogar Informationen
aus dem Nutzerprofil des Suchenden berücksichtigt werden.
Dies führt einerseits zu genaueren Suchanfragen, andererseits wird
immer intransparenter, aufgrund welcher Kriterien bestimmte Suchergebnisse
zustande kommen. Dass Suchende auf diese Weise
eher Informationen zu sehen bekommen, die ihren Interessen und
Meinungen entsprechen, verhindert, dass durch Internetsuche
wirklich Neues entdeckt wird. Dieses Phänomen wird heute unter
dem Stichwort »Filterblase« (»filter bubble«) sehr kritisch gesehen
(Pariser, 2011).
Von Dominik Petko im Buch Einführung in die Mediendidaktik (2014) im Text Digitale Lern- und Unterrichtsmedien auf Seite 51Algorithmen entscheiden darüber, welche Informationen uns wie präsentiert werden. Die Kriterien, nach denen die Auswahl erfolgt, sind allein den Betreibern der entsprechenden Plattformen bekannt. Vielfach werden mit den immer zahlreicheren Daten persönliche Profile gebildet, aus denen die Sirenenserver unsere vermeintlichen Interessen ableiten. Das Ergebnis ist eine »Filterblase«, eine Art virtueller Käfig, in dem wir in unseren Haltungen bestärkt werden und in dem wir im Wesentlichen mit Menschen kommunizieren, die uns mehr oder weniger ähnlich sind. Statt einer gibt es viele »Öffentlichkeiten«, im Extremfall so viele, wie es Nutzer gibt.
Von Peter Schaar im Buch Das digitale Wir (2015) Viele Unternehmen passen das, was man sieht, an das jeweilige Nutzerprofil an: Google Search, Yahoo News, sogar Onlinezeitungen wie die New York Times. Das ist ein Riesengeschäft. Der erste Eintrag bei einem Google-Suchergebnis bekommt ein Drittel der Klicks und wer nicht auf der ersten Ergebnisseite steht, existiert praktisch nicht. Das hat zur Folge, dass das Internet, das man sieht, zunehmend auf die eigenen Interessen laut persönlichem Profil zugeschnitten ist. Dies führt wiederum zu einem Phänomen, das der Politaktivist Eli Pariser als “Filterblase” bezeichnet hat: ein auf die eigenen Vorlieben optimiertes Internet, in dem man jede Meinung, mit der man nicht übereinstimmt, vermeiden kann
Von Bruce Schneier im Buch Data und Goliath (2015) Der Ausdruck filter bubble stammt von dem Autor Eli Pariser, der selbst bei der Website Upworthy arbeitet, die virale Nachrichten in sozialen Netzwerken verbreitet. Anders als bei traditionellen Medien wie einer Zeitung oder einem Fernsehsender, die uns ein mehr oder weniger diverses Programm präsentieren, servieren uns die Algorithmen von Facebook, Google und Co. zunehmend nur noch das, was uns schon in der Vergangenheit gefallen hat. Etwas vereinfacht ausgedrückt hieße das für politische Nachrichten: Linke lesen nur noch Beiträge von anderen Linken und Artikel aus linkslastigen Medien, für die Rechten ist es umgekehrt. Jeder lebt in einer Blase, die ihm Tag für Tag die eigene Weltsicht bestätigt – und das ist schlecht für die Demokratie, weil die vom Austausch konträrer Meinungen lebt. Parisers Buch Filter Bubble. Wie wir im Internet entmündigt werden machte seine Gedanken populär.
Von Christoph Dröser im Buch Total berechenbar (2016) Der Begriff der Filter Bubble meint die Personalisierung bei Websites und
Apps mit Hilfe von Algorithmen, die den Informationsbedarf des Benutzers
voraussagen und entsprechende Seiten, Texte und Bilder (nicht) aufrufen
bzw. ein- oder ausblenden. Eli Pariser hat den Begriff in seinem
Buch „The Filter Bubble: What the Internet Is Hiding from You“ von 2011
(dt. Titel „Filter Bubble: Wie wir im Internet entmündigt werden“, publiziert
2012) geprägt. Verwandt ist der Begriff der Informationsblase.
Die Filter Bubble ist ein typisches Phänomen sozialer Netzwerke. Diese neigen dazu, einen „ideologischen Rahmen“, wie Pariser es in seinem Buch nennt, zu schaffen, ein informationelles Gefängnis. Die Algorithmenethik kann sich mit der Moral der Algorithmen beschäftigen oder – in anderer Ausprägung – mit den Auswirkungen solcher Einschränkungen auf das Wohl, die Entwicklung und die Entscheidungsfreiheit des Menschen.
Von Oliver Bendel im Buch 300 Keywords Informationsethik (2016) auf Seite 73Die Filter Bubble ist ein typisches Phänomen sozialer Netzwerke. Diese neigen dazu, einen „ideologischen Rahmen“, wie Pariser es in seinem Buch nennt, zu schaffen, ein informationelles Gefängnis. Die Algorithmenethik kann sich mit der Moral der Algorithmen beschäftigen oder – in anderer Ausprägung – mit den Auswirkungen solcher Einschränkungen auf das Wohl, die Entwicklung und die Entscheidungsfreiheit des Menschen.
Bemerkungen
How ironic that the Internet, which allows for
immediate access to reliable information by anyone who
bothers to look for it, has for some become nothing but
an echo chamber.
Von Lee McIntyre im Buch Post-Truth (2018) im Text The Rise of Social Media and the Problem of Fake News Das ist ein verbreiteter Mythos. Es gibt
Studien von der Universität Oxford, die
zeigen, dass Menschen, die online sind, eher
anderen politischen Positionen und anderen
Argumenten ausgesetzt sind als Leute, die
offline sind. Es gibt keine empirische Evidenz
für die Sorge über Filterblasen.
Von Jeff Jarvis im Text «Idioten bleiben Idioten, mit oder ohne die Tweets von Trump» (2020) Das klingt vielleicht erst einmal gar nicht so schlimm, aber im großen Maßstab ist es das. Niemand möchte in einer Gesellschaft leben, in der jeder nur das liest, was seine bestehenden Ansichten bestätigt, wo es keine spontanen Begegnungen mehr gibt, die uns beleben, durcheinanderbringen, infrage stellen und belehren
Von Bruce Schneier im Buch Data und Goliath (2015) Welche
absurden Ausmasse das annehmen
kann, zeigte das «Wall Street Journal»
mit einem Experiment während der
Wahlen: Nach zwei, drei Klicks war der
Nachrichtenfluss auf Facebook jeweils
so eingestellt, dass man nur noch einseitige
Berichte über den jeweiligen Kandidaten
zu sehen bekam. Andere Perspektiven
bleiben ausserhalb der Blase.
Von Philipp Loser im Text Kleines Lexikon der Krise (2016) In der Diskussion werden ziemlich unterschiedliche Themen zusammen abgehandelt: Parisers These von einer Einengung unserer Wahrnehmung durch die «Filter Bubble», die Kritik an Empfehlungsalgorithmen (von denen es wiederum mehr als nur eine Sorte gibt), die Kritik an der Google-Personalisierung sowie die Kritik daran, nach welchen Kriterien Facebook seinen Nutzern bestimmte Beiträge sichtbarer präsentiert als andere.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille Eli Parisers Beschäftigung mit der Filterbubble begann mit der Feststellung, dass Facebook ihm immer weniger Updates seiner konservativen Freunde anzeigte, weil er ihre Links seltener anklickte oder teilte. Aus dieser Aussage kann man aber auch einen ganz anderen Schluss ziehen als Pariser: Der Autor wäre gern ein weltoffener, vielseitig interessierter Mensch und folgt daher zunächst auch ein paar Konservativen. Das Interesse geht aber dann doch wieder nicht so weit, dass er deren Links tatsächlich anklicken wollte, geschweige denn die verlinkten Beiträge lesen.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 278Die Auswertung unseres Verhaltens durch Filter- und Empfehlungsalgorithmen stimmt nicht immer mit unserer Selbstwahrnehmung überein. Wer jahrelang Mainstreamtitel bei Amazon gekauft hat, der bekommt auch welche empfohlen, und wer nie auf die Facebookupdates konservativer Freunde reagiert, bei dem geht der Algorithmus mit einem gewissen Recht davon aus, dass das Interesse an dieser Person oder ihren Ge
sprächsthemen so groß nicht sein kann. Facebook blendet das aus, womit wir uns weniger beschäftigen, und macht damit schlicht ein vorhandenes Verhaltensmuster sichtbar. Klagen über das Ergebnis sind Klagen darüber, dass Selbstbild und Wirklichkeit auseinanderklaffen.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 278Wir erhalten, kurz gesagt, nur die Informationen, mit denen wir schon rechnen.
Das unerwartete Finden, das Entdecken von Neuigkeiten entfällt, weil uns unsere
Tools so gut kennen. Die engsten Verbindungen gehen wir zudem mit Menschen
ein, die unsere Sicht der Welt teilen und uns ebenfalls so nahe sind, dass sie uns
diejenigen Informationen zusenden, die unserem Erwartungshorizont entsprechen.
Zusammen mit der psychologischen Einsicht des Confirmation Bias, dass wir
den Informationen mehr vertrauen, die bestätigen, was wir schon vermuten oder
zu wissen glauben, besteht so die Gefahr, dass wir unser Weltbild in Social Media
zementieren anstatt es einer Prüfung auszusetzen, es zu erweitern, zu verfeinern.
Von Philippe Wampfler im Buch Facebook, Blogs und Wikis in der Schule (2013) im Text Wie Lehrpersonen Social Media nutzen können auf Seite 113Aus seiner kleinen, dunklen Informationshöhle zu entkommen, ist dank Internet zumindest theoretisch viel einfacher als früher. «Nie war weniger aufgezwungene Bubble»,
wie Felix Neumann in seinem Blog unter fxneumann.de schreibt, «früher zu meinen Schulzeiten, also nicht wesentlich länger als 10 Jahre her, als wir zuhause nur die Badischen Neuesten Nachrichten hatten, es in Kirrlach keine taz zu kaufen gab, und mein Deutschlehrer seine gelesenen Zeitungen für uns in die Schulbibliothek gelegt hat – das war Bubble!» In Zeitungen, Buchhandlungen, Bibliotheken und im Radio konnte aus Zeit- und Platzgründen schon immer nur ein kleiner Teil der kulturellen Produktion berücksichtigt werden. Auch Reiseführer sind eine klassische Filterbubble mit erheblichen Folgen. Technisch gesehen ist es durch das Netz viel leichter geworden, sich mit anderen Positionen auseinanderzusetzen. Das macht es schwieriger zu rechtfertigen, warum wir es nicht tun.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 279Auch die heute vorgebrachten Argumente, die eine internetverursachte Wahrnehmungseinengung an die Wand malen, haben weniger mit konkreten Problemen als mit anekdotischen Erfahrungen zu tun.
[...]
Das alles muss nicht heißen, dass die Skeptiker unrecht haben. Wo heute noch kein konkretes Problem besteht, kann morgen eines auftauchen. Auf jeden Fall aber deutet das Missverhältnis zwischen der Intensität der Debatte und der Spärlichkeit konkreter Belege darauf hin, dass es ein Bedürfnis nach der Auseinandersetzung gibt. Das Konzept der Filterbubble und der verallgemeinernde Begriff «Algorithmus» sind Henkel, an denen wir verschiedene abstrakte Probleme zu greifen versuchen: den Widerwillen gegen heimliche Beeinflussung und Eingriffe in die eigene Autonomie. Das Misstrauen gegenüber bestimmten Autoritäten bei gleichzeitigem Wunsch nach anderen, verlässlicheren. Und die Ahnung, dass auch das eigene Gehirn womöglich voreingenommene Filtersysteme einsetzt.
Von Kathrin Passig, Sascha Lobo im Buch Internet - Segen oder Fluch (2012) im Text Mark Zuckerbergs Brille auf Seite 269Of course, to some extent we’ve always consumed media
that appealed to our interests and avocations and ignored much
of the rest. But the filter bubble introduces three dynamics
we’ve never dealt with before.
Von Eli Pariser im Buch The Filter Bubble (2011) auf Seite 10- First, you’re alone in it. A cable channel that caters to a narrow interest (say, golf ) has other viewers with whom you share a frame of reference. But you’re the only person in your bubble. In an age when shared information is the bedrock of shared experience, the filter bubble is a centrifugal force, pulling us apart.
- Second, the filter bubble is invisible. Most viewers of conservative or liberal news sources know that they’re going to a station curated to serve a particular political viewpoint. But Google’s agenda is opaque. Google doesn’t tell you who it thinks you are or why it’s showing you the results you’re seeing. You don’t know if its assumptions about you are right or wrong—and you might not even know it’s making assump tions about you in the first place. My friend who got more investment-oriented information about BP still has no idea why that was the case— she’s not a stockbroker. Because you haven’t chosen the criteria by which sites filter information in and out, it’s easy to imagine that the information that comes through a filter bubble is unbiased, objective, true. But it’s not. In fact, from within the bubble, it’s nearly impossible to see how biased it is.
- Finally, you don’t choose to enter the bubble. When you turn on Fox News or read The Nation, you’re making a decision about what kind of filter to use to make sense of the world. It’s an active process, and like putting on a pair of tinted glasses, you can guess how the editors’ leaning shapes your perception. You don’t make the same kind of choice with personalized filters. They come to you—and because they drive up profits for the Web sites that use them, they’ll become harder and harder to avoid.
Verwandte Objeke
Verwandte Begriffe (co-word occurance) |
Häufig erwähnende Personen
Häufig co-zitierte Personen
Eli
Pariser
Pariser
Tim
Wu
Wu
Clay
Shirky
Shirky
Julia
Ebner
Ebner
Nora S.
Stampfl
Stampfl
Mariana G.
Figueiro
Figueiro
Barbara
Plitnick
Plitnick
Mark S.
Rea
Rea
Brittany
Wood
Wood
Yochai
Benkler
Benkler
Statistisches Begriffsnetz
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Zeitleiste
118 Erwähnungen
- Dein Algorithmus - meine Meinung! - Algorithmen und ihre Bedeutung für Meinungsbildung und Demokratie (BLM Bayerische Landeszentrale für neue Medien)
- Mainstream - Warum wir den Medien nicht mehr trauen (Uwe Krüger)
- Was hat Bill Gates mit Corona zu tun? (Rüdiger Maas)
- Die Druckmacher - Wie die Generation Luther die erste Medienrevolution entfesselte (Thomas Kaufmann)
- Infotopia - How Many Minds Produce Knowledge (Cass R. Sunstein) (2006)
- Republic.com 2.0 (Cass R. Sunstein) (2007)
- Handbuch Medienpädagogik (Uwe Sander, Friederike von Gross, Kai-Uwe Hugger) (2008)
- Die Internet-Falle - Google+, Facebook, Staatstrojaner - Was Sie für Ihren sicheren Umgang mit dem Netz wissen müssen (Thomas R. Köhler) (2010)
- 4. Hinter den Kulissen des Social Web
- The Filter Bubble - What the Internet is Hiding from You (Eli Pariser) (2011)
- Digitale Demenz - Wie wir uns und unsere Kinder um den Verstand bringen (Manfred Spitzer) (2012)
- Internet - Segen oder Fluch (Kathrin Passig, Sascha Lobo) (2012)
- 1. Null oder Eins? - Ja. - Über Verständigungsschwierigkeiten
- 15. Mark Zuckerbergs Brille - Filter und Empfehlungen
- Die stille Revolution - Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen (Mercedes Bunz) (2012)
- Jahrbuch Netzpolitik 2012 - Von A wie ACTA bis Z wie Zensur (Markus Beckedahl, Andre Meister) (2012)
- Who Owns the Future? (Jaron Lanier) (2013)
- Digital Disconnect - How Capitalism is Turning the Internet Against Democracy (Robert McChesney) (2013)
- 1. What Is the Elephant in the Digital Room?
- 4. The Internet and Capitalism I: Where Dinosaurs Roam?
- 5. The Internet and Capitalism II: Empire of the Senseless?
- The Culture of Connectivity (José van Dijck) (2013)
- The New Digital Age - Reshaping the Future of People, Nations and Business (Eric Schmidt, Jared Cohen) (2013)
- Digital Exposure - Postmodern Postcapitalism (Raphael Sassower) (2013)
- Facebook, Blogs und Wikis in der Schule (Philippe Wampfler) (2013)
- Die berechnete Welt - Leben unter dem Einfluss von Algorithmen (Nora S. Stampfl) (2013)
- Recherche 2.0 - Finden und Weiterverarbeiten in Studium und Beruf (Ragnar Müller, Jürgen Plieninger, Christian Rapp) (2013)
- Einführung in die Mediendidaktik - Lehren und Lernen mit digitalen Medien (Dominik Petko) (2014)
- it's complicated - the social lives of networked teens (danah boyd) (2014)
- Mailbox voll, Akku leer - Müssen wir jetzt reden? - Wie die digitale Revolution die Gesellschaft verändert (Norbert Peter) (2014)
- Teaching crowds - Learning and Social Media (Jon Dron, Terry Anderson) (2014)
- The Dark Net - Unterwegs in den dunklen Kanälen der digitalen Unterwelt (Barlett Jamie) (2014)
- Das Neue Spiel - Strategien für die Welt nach dem digitalen Kontrollverlust (Michael Seemann) (2014)
- Das digitale Debakel - Warum das Internet gescheitert ist - und wie wir es retten können (Andrew Keen) (2015)
- 4. Die Ich-Revolution
- Das digitale Wir - Unser Weg in die transparente Gesellschaft (Peter Schaar) (2015)
- Die Herrschaftsformel - Wie Künstliche Intelligenz uns berechnet, steuert und unser Leben verändert (Kai Schlieter) (2015)
- Cyberkrank! - Wie das digitalisierte Leben unsere Gesundheit ruiniert (Manfred Spitzer) (2015)
- Big Data und Medienbildung - Zwischen Kontrollverlust, Selbstverteidigung und Souveränität in der digitalen Welt (Harald Gapski) (2015)
- Warum sich Medienpädagogik mit Big Data Analytics befassen sollte (Isabel Zorn) (2015)
- Zur Idee einer digitalen Bildungsidentität (Christopher Koska)
- The Future of the Professions - How Technology Will Transform the Work of Human Experts (Richard Susskind, Daniel Susskind) (2016)
- Cyberpsychologie - Leben im Netz: Wie das Internet uns verändert (Catarina Katzer) (2016)
- 300 Keywords Informationsethik - Grundwissen aus Computer- Netz- und Neue-Medien-Ethik sowie Maschinenethik (Oliver Bendel) (2016)
- Total berechenbar - Wenn Algorithmen für uns entscheiden (Christoph Dröser) (2016)
- Die smarte Diktatur - Der Angriff auf unsere Freiheit (Harald Welzer) (2016)
- Hass im Netz - Was wir gegen Hetze, Mobbing und Lügen tun können (Ingrid Brodnig) (2016)
- The World According to Star Wars (Cass R. Sunstein) (2016)
- Kultur der Digitalität (Felix Stalder) (2016)
- Smarte Maschinen - Wie künstliche Intelligenz unser Leben verändert (Ulrich Eberl) (2016)
- Digitale Paranoia - Online bleiben, ohne den Verstand zu verlieren (Jan Kalbitzer) (2016)
- Redefreiheit - Prinzipien für eine vernetzte Welt (Timothy Garton Ash) (2016)
- Digitales Wissen. Daten und Überwachung (Thomas Christian Bächle) (2016)
- Kleines Lexikon der Krise (Philipp Loser) (2016)
- Big Data für Donald Trump - Fake News für die Intelligenzija (Thomas Knüwer) (2016)
- ON/OFF - Risks and Rewards of the Anytime-Anywhere Internet (Sarah Genner) (2017)
- #Republic - Divided Democracy in the Age of Social Media (Cass R. Sunstein) (2017)
- Unsere digitale Zukunft - In welcher Welt wollen wir leben? (Carsten Könneker) (2017)
- 1. Digitale Demokratie statt Datendiktatur (Dirk Helbing, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari, Andrej Zwitter) (2015)
- Digitale Öffentlichkeit - Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen (Konrad Lischka, Christian Stöcker) (2017)
- Informatische Bildung zum Verstehen und Gestalten der digitalen Welt - 17. GI-Fachtagung Informatik und Schule (Ira Diethelm) (2017)
- Smartphone-Demokratie - #FakeNews #Facebook #Bots #Populismus #Weibo #Civictech (Adrienne Fichter) (2017)
- Was heisst «Filterblase»? - Digitalratgeber Teil 7 erschienen in Zeitlupe 11/17 (Beat Döbeli Honegger) (2017)
- Second Handbook of Information Technology in Primary and Secondary Education (Joke Voogt, Gerald Knezek, Rhonda Christensen, Kwok-Wing Lai) (2018)
- 12. Cultural and Social Issues in Using Social Media to Support Learning (Royce Kimmons, Olga Belikov)
- Post-Truth (Lee McIntyre) (2018)
- If...Then - Algorithmic Power and Politics (Taina Bucher) (2018)
- The Coddling of the American Mind (Greg Lukianoff, Jonathan Haidt) (2018)
- Die digitale Unterwerfung (Wolfgang Schimpf) (2018)
- «Wir sind auf dem Weg zur Empörungsdemokratie» (Bernhard Pörksen, Claudia Schwartz) (2018)
- Kinder brauchen mehr als digitale Tools (Sarah Genner) (2018)
- Stumme Medien - Vom Verschwinden der Computer in Bildung und Gesellschaft (Roberto Simanowski) (2018)
- 1. Medien und Gesellschaft
- Auf Wahlfang - Welche Rolle spielte Facebook bei Islands Parlamentswahl? (2018)
- Alles, was du glaubst zu wissen, ist falsch (Roger Schawinski) (2018)
- Diktatur des Datenschutzes (Matthias Förtsch) (2018)
- Im Darknet der Seele (Christof Gertsch) (2018)
- Lehrmittel in einer digitalen Welt (Beat Döbeli Honegger, Michael Hielscher, Werner Hartmann) (2018)
- Medien und Schule - Unterrichten mit Whiteboard, Smartphone und Co. (Heike Schaumburg, Doreen Prasse) (2018)
- Das zähe Ringen um verpflichtenden Informatikunterricht an Schulen (Lisa Becker) (2018)
- «Idioten bleiben Idioten, mit oder ohne die Tweets von Trump» (Jeff Jarvis, Gordana Mijuk) (2020)
- Die Debatte über digitale Bildung ist entgleist (Julian Nida-Rümelin, Klaus Zierer) (2020)
- #relichat - Informelles Lernen mit Twitter - Religionslehrer*innenfortbildung durch soziaö-konstruktivistische Vernetzung in Communities of Practice (Karl Peböck) (2020)
- enter 01/2021 - Thema «Fake News und Deepfake» (Swisscom) (2021)
- The Myth Of Artificial Intelligence - Why Computers Can’t Think The Way We Do (Erik J. Larson) (2021)
- Politics of Disinformation - The Influence of Fake News on the Public Sphere (Bella Palomo, Dolors Palau-Sampio, Eva Campos-Dominguez, Guillermo Lopez-Garcia, Pere Masip) (2021)
- Du gehörst uns! - Die psychologischen Strategien von Facebook, TikTok, Snapchat & Co – und wie wir uns vor der großen Manipulation schützen (Christian Montag) (2021)
- Faschismus und wie man ihn stoppt (Paul Mason) (2021)
- Bildung schützt vor Dummheit nicht (Sandro Benini) (2021)
- Das Ende der Intellektuellen naht (Peter Kurer) (2021)
- Breaking the Social Media Prism - How to Make Our Platforms Less Polarizing (Chris Bail) (2021)
- 21st‑Century Readers - Developing Literacy Skills in a Digital World (OECD Organisation for Economic Co-operation and Development) (2021)
- 7. Developing literacy skills in a digital world - Implications for education policy and practice
- Digitale Revolution und Bildung - Für eine zukunftsfähige Medienkompetenz (Roberto Simanowski) (2021)
- Digitalisierung der Schweizer Demokratie - Technologische Revolution trifft auf traditionelles Meinungsbildungssystem (Urs Bieri, Edward Weber, Nadja Braun Binder, Sébastien Salerno, Tobias Keller, Manuela Kälin) (2021)
- Machtmaschinen - Warum Datenmonopole unsere Zukunft gefährden und wie wir sie brechen (Thomas Ramge, Viktor Mayer-Schönberger) (2021)
- Der Protest eskaliert (Constanze von Bullion, Ronen Steinke) (2021)
- Should you believe Wikipedia? - Online Communities and the Construction of Knowledge (Amy Bruckman) (2022)
- How to Mislead with Facts - Verified facts can be used to support erroneous conclusions (2022)
- Der eigene Nachrichtenchef - Fokusthema aus c't 10/2022 (2022)
- «Techfirmen übernehmen die Macht» (Ulises Mejias, Mathias Born) (2022)
- New Perspectives in Critical Data Studies - The Ambivalences of Data Power (Andreas Hepp, Juliane Jarke, Leif Kramp) (2022)
- Fighting the “System” - A Pilot Project on the Opacity of Algorithms in Political Communication (Jonathan Bonneau, Laurence Grondin-Robillard, Marc Ménard, André Mondoux)
- Professionalisierung von Grundschullehrkräften - Kontext, Bedingungen und Herausforderungen (Ingelore Mammes, Carolin Rotter) (2022)
- Mehr als Distance Learning - Digitalisierung als Notwendigkeit, Herausforderung und Chance in der Lehramtsbildung für die Grundschule (Inga Gryl)
- Rhetoriken des Digitalen - Adressierungen an die Pädagogik (Miguel Zulaica y Mugica, Klaus-Christian Zehbe) (2022)
- Fragmente (post-) digitaler Lebenswelten (Jessica Bruns, Johanna Marlene Dresbach, Leonie Forst, Sascha Königschulte, Nadine Neuhaus, Sarah Luisa Stamm, Anne Winterhager)
- Machine Learning for Teachers - Evaluation und Entwicklung von Lehr- und Lernmaterialien zum Thema Künstliche Intelligenz für Lehrpersonen ab Sekundarstufe 1 (Thomas Zurfluh) (2022)
- Behind Their Screens - What Teens Are Facing (and Adults Are Missing) (Emily Weisntein, Carrie James) (2022)
- Bildung - Philosophie - Digitalisierung (Markus Bohlmann) (2022)
- Was ist Digitalisierungskritik? - Eine Heuristik
- Algorithmen und Autonomie - Interdisziplinäre Perspektiven auf das Verhältnis von Selbstbestimmung und Datenpraktiken (Dan Verständig, Christina Kast, Janne Stricker, Andreas Nürnberger) (2022)
- Algorithmen und Autonomie - Interdisziplinäre Perspektiven auf das Verhältnis von Selbstbestimmung und Datenpraktiken
- Die vierte Gewalt - Wie Mehrheitsmeinung gemacht wird, auch wenn sie keine ist (Richard David Precht, Harald Welzer) (2022)
- What's Our Problem? - A Self-Help Book for Societies (Tim Urban) (2023)
- «Vorurteile sind meist ein riesiger Vorteil» (Juliane Degner, Niklas Elsenbruch) (2023)
- Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz (Deutscher Ethikrat) (2023)
- Giftige Genies (Johannes Franzen) (2023)
- Bildung für eine digitale Zukunft (Katharina Scheiter, Ingrid Gogolin) (2023)
- Kompetenzen für das Lernen mit digitalen Medien - Eine konzeptuelle Analyse (Emely Hoch, Tim Fütterer)
- The Internet Con - How to Seize the Means of Computation (Cory Doctorow) (2023)
- ibis 1/1 (2023)
- Filterblasen verstehen (Nicolai Pöhner) (2023)
- Fairness and Machine Learning - Limitations and Opportunities (Solon Barocas, Moritz Hardt, Arvind Narayanan) (2023)
- AI Report - by the European Digital Education Hub’s Squad on Artificial Intelligence in Education (European Digital Education Hub) (2024)
- brand eins 02/2024 (2024)
- «Wir sollten uns nicht durch die Stellungnahme des Karolinska-Instituts beirren lassen“ - Eine Gegendarstellung (Tim Fütterer, Peter Gerjets, Ulrike Cress, Andreas Lachner, Detmar Meurers, Olaf Köller, Frank Fischer, Katharina Scheiter, Ralph Müller-Eiselt, Florian Nuxoll, Patrick Bronner, Bob Blume, Ulrich Trautwein) (2024)
- Alles überall auf einmal - Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können (Miriam Meckel, Léa Steinacker) (2024)
- Pädagogik 7-8/2024 (2024)
- Dänische Psychologin warnt Schweiz: «Machen Sie es nicht so wie wir» (Aida Bikic, Nina Fargahi) (2024)