Cet article analyse les bulles les filtre, sa création, ses conséquences, comment les éviter, ses nuances etc...

En 2011, le militant d’Internet Eli Pariser publie un ouvrage intitulé «The Filter Bubble : What the Internet Is Hiding from You». À partir de ce livre, le terme de « bulle de filtre » s’est largement diffusé dans le débat public. Une bulle de filtre désigne à la fois le processus de filtrage de l’information auquel chaque utilisateur est soumis, ainsi que l’état d’« isolement intellectuel » et culturel qui peut en résulter. En effet, les informations auxquelles un internaute accède sont en grande partie le produit d’une personnalisation algorithmique, souvent mise en place à son insu. Des algorithmes sélectionnent ainsi, de manière discrète, les contenus visibles en s’appuyant sur différentes données collectées sur les utilisateurs. Par conséquent, chaque internaute accède à une version du web qui lui est propre, formant une « bulle » unique, adaptée à ses préférences supposées. Cette bulle est construite à la fois par les systèmes techniques et par les choix individuels. Dès lors, plusieurs questions se posent : comment ces bulles se forment-elles ? Quelles en sont les conséquences politiques et sociales ? Peut-on les éviter ? Et dans quelle mesure ce phénomène doit-il être nuancé ?

Comment se forment les bulles de filtre ?

Les bulles de filtres se forment à partir de l'interaction entre les algorithmes de recommandation, les structures sociales en ligne et les comportements individuels. Tout d'abord, les plateformes numériques collectent d'énormes quantités de données utilisateur afin de prédire le contenu le plus pertinent. Comme l'explique Eli Pariser, ce processus de personnalisation crée un environnement informationnel adapté à chaque individu, où certains contenus sont mis en avant tandis que d'autres sont occultés. Cependant, les algorithmes n'opèrent pas tout seuls. Selon l'étude Exposure to ideologically diverse news and opinion on Facebook , les utilisateurs eux-mêmes jouent un rôle crucial. Les individus ont tendance à interagir avec les contenus qui confirment leurs croyances préexistantes, renforçant ainsi le biais de confirmation, c'est à dire, le mécanisme cognitif qui consiste à privilégier les informations confirmant les idées préconçues ou les hypothèses d'un individu . Ce comportement alimente les algorithmes, qui apprennent de ces interactions et affinent leurs recommandations. De même, selon l'article Filter Bubbles and Echo Chambers

new web-based media have integrated several mechanisms that allow for websites to collect much more precise information. These include "share", "like", "subscribe" buttons, etc., which inform algorithms about users' online behavior.

N'importe quel de ces nouveaux boutons, intégrés sur le web, collectent plein d'informations sur l'utilisateur.

Quelles sont les conséquences politiques et sociales ?

Les conséquences politiques et sociales que l'on peut observer dans les bulles de filtrage au sein des réseaux sociaux sont majoritairement négatives. Selon l'article Filter Bubbles and Eco Chambers

the personalization of information on the Internet is harmful for Internet users, since they are no longer confronted with information that could broaden their interests or challenge their beliefs or opinions.

En effet, au moment de consommer uniquement le même type de contenu, cela nous empêche fortement de réfléchir à d'autres opinions et informations qui circulent sur Internet, ce qui engendre une forte polarisation.

On peut prendre l’exemple de Facebook et Reddit, selon l'article Social Media Bubbles Reinforce Negative Behaviour.

A study by Facebook data analysts revealed that for every four Facebook friends an average user has that share the same side of the left-right political spectrum, that user is friends with only one person who is on the opposite side of the political spectrum.

En effet, les internautes ont donc tendance à être principalement en contact avec des personnes qui partagent leurs opinions politiques, et l'algorithme réduit encore davantage leur exposition à des idées contraires. Dans le cas de Reddit, l'organisation en communautés (subreddits) favorise la création d'espaces fermés où les opinions divergentes n’existent quasiment pas et peuvent être directement bannies, renforçant ainsi ce que l'on appelle les « chambres d'écho ».

Il convient de souligner que, de la même manière, les contenus diffusant des commentaires négatifs sont beaucoup plus consultés que ceux qui diffusent des commentaires positifs. Cela crée un cercle vicieux : les contenus négatifs sont plus visibles, plus consommés et, par conséquent, plus produits. Enfin, l'article conclut que les bulles de filtre contribuent à créer des environnements numériques de plus en plus fermés et polarisés, où les utilisateurs voient non seulement leurs opinions renforcées, mais aussi leurs attitudes négatives envers d'autres groupes.

Peut-on les éviter ?

Face aux conséquences négatives en lien avec les bulles de filtre, on peut se demander si on serait capables de les éviter ? L'article A Conceptual Tool to Eliminate Filter Bubbles in Social Networks d'Alireza Amrollahi propose plusieurs solutions concrètes pour éclater ces bulles. L'auteur part de l'idée que les bulles de filtrage représentent un défi majeur pour l'accès à une information diversifiée, en particulier dans les contextes où les algorithmes privilégient les contenus présentant le plus grand potentiel d'interaction. Dans cette perspective, le problème ne réside pas uniquement dans le comportement des utilisateurs, mais aussi dans la conception même des plateformes numériques.

L'une des principales propositions de l'article consiste à repenser les systèmes de recommandation. Au lieu de se fonder exclusivement sur la pertinence des different contenus publiés, ces systèmes pourraient intégrer des critères de diversité informative. Cela impliquerait, par exemple, d’introduire des contenus qui ne correspondent pas nécessairement aux préférences antérieures de l’utilisateur, dans le but d’élargir son exposition à différents points de vue. De cette manière, les algorithmes cesseraient de renforcer systématiquement les croyances existantes et contribueraient à créer des environnements informatifs plus équilibrés.

L'auteur souligne toutefois que ces solutions techniques ne suffisent pas à elles seules. La responsabilité repose également aux utilisateurs eux-mêmes, qui ont tendance à privilégier les contenus qui confirment leurs opinions. Même lorsqu'on leur présente des informations variées, les individus peuvent les rejeter. C'est pourquoi éviter les bulles de filtrage nécessite également le développement de compétences critiques, telles que l'éducation aux médias et la capacité à remettre en question les sources d'information.

D'autre part, cette approche met en évidence le rôle central des plateformes numériques dans l'organisation de l'accès à l'information. Si celles-ci continuent de privilégier exclusivement la maximisation du temps d'utilisation et de l'interaction, les bulles de filtrage continueront de se reproduire. En conséquence, certains auteurs défendent la nécessité d'une plus grande transparence des algorithmes et, dans certains cas, d'interventions réglementaires obligeant les plateformes à promouvoir une plus grande diversité de contenus.

Un phénomene à nuancer ?

Bien que les bulles de filtres soient souvent perçues comme un problème limitant la diversité de l'information et favorisant la polarisation, des travaux récents proposent une vision plus nuancée du phénomène. L'article Rethinking the filter bubble? Developing a research agenda for the protective filter bubble de Jacob Erickson, remet en question l'idée que les bulles de filtres soient négatives. Tout d'abord, Erickson souligne que l'approche dominante tend à se concentrer presque exclusivement sur les risques associés à ces bulles, tels que l'isolement informationnel ou la désinformation. Cependant, l'auteur propose de reconsidérer cette perspective en introduisant le concept de « bulle de filtre protectrice ». Comme il l'affirme, «they may serve a protective purpose». Cette idée suggère que, dans certains contextes, les bulles n'isolent pas seulement les individus, mais peuvent aussi les protéger des contenus hostiles ou nuisibles .Cette fonction protectrice est particulièrement importante pour les communautés vulnérables ou marginalisées, tels que les communautés LGBT+, neurodivergentes, féministes, survivantes, etc... Erickson souligne que ces espaces numériques peuvent constituer des environnements sûrs où les utilisateurs peuvent s'exprimer librement sans être exposés à des attaques, à la discrimination ou à la surveillance. En ce sens, les bulles de filtres se rapprochent du concept d’« espaces sécurisés », car elles permettent aux individus de construire et de renforcer leur identité dans un environnement plus contrôlé. Comme l’indique l’auteur, «These spaces offer opportunities for individuals in marginalized communities to discuss taboo topics openly, find support, and escape online harassment». Cela implique que le filtrage ne doit pas toujours être interprété comme une limitation, mais aussi comme une forme de protection contre certains risques liés à l’environnement numérique.

Synthèse

Pour conclure, nous pouvons dire que les bulles de filtre constituent un phénomène complexe dans lequel interviennent à la fois des facteurs technologiques, politiques et sociaux. Si les algorithmes jouent un rôle important dans la personnalisation de l'information, les utilisateurs contribuent eux aussi activement à la construction de ces environnements par leurs choix et leurs comportements. De même, leurs effets sont ambivalents. D'une part, elles peuvent favoriser la polarisation, la désinformation et le renforcement de croyances préexistantes. D'autre part, elles peuvent également offrir des espaces de protection à certaines communautés. On a vu de meme maniere qu'il est difficile d'éliminer complètement les bulles de filtre, il est toutefois possible de les limiter grâce à une combinaison de changements dans la conception des plateformes, d'une plus grande transparence algorithmique et du développement d'un esprit critique de la part des utilisateurs.

Bibliographie