17 juin 2020 848 mots, 4 min. de lecture Dernière mise à jour : 15 mars 2022

Pour contrer les bulles de filtres cultivez les « maillons faibles » de votre réseau

Par Pierre-Nicolas Schwab Docteur en marketing, directeur de IntoTheMinds
La théorie des bulles de filtres est une fois de plus remise en question. Cette fois-ci c’est une étude américaine qui montre que c’est la composition de notre réseau qui détermine si nous serons piégés dans une bulle de filtres […]

La théorie des bulles de filtres est une fois de plus remise en question. Cette fois-ci c’est une étude américaine qui montre que c’est la composition de notre réseau qui détermine si nous serons piégés dans une bulle de filtres ou pas. En particulier, les « connexions faibles » sont cruciales pour être exposés à des contenus diversifiés. On vous explique tout dans cet article.

Si vous n’avez que 30 secondes

  • une étude américaine (une de plus) remet en cause la théorie des bulles de filtres. Elle a été menée sur des utilisateurs de Facebook
  • elle montre que l’exposition à des opinions divergentes est beaucoup plus courante (87,1%) que ne laisserait supposer la théorie des bulles de filtres
  • les connexions « faibles » sont essentielles pour être exposé à des opinions différentes des nôtres. Les connexions faibles sont les personnes de nos réseaux avec lesquelles nous n’entretenons que des relations lointaines.
  • un facteur est en particulier crucial : la diversité du réseau en matière d’ethnicité et de religion.

Sommaire


Introduction

Les bulles de filtres c’est cette théorie, popularisée par Eli Pariser en 2011, qui veut que les algorithmes nous recommandent uniquement ce que nous sommes habitués à consommer et, ce faisant, nous enferment. Ce problème serait particulièrement prégnant sur les sites que nous visitons pour nous informer, en première ligne desquelles les réseaux sociaux. Nos croyances de départ se trouvent renforcées par les algorithmes qui ne nous exposent qu’à ce que nous aimons déjà. Nous nous enfermons alors de plus en plus dans ces croyances.
Voilà pour la théorie. Sauf que depuis 2015 les preuves scientifiques s’accumulent qui mettent à mal cette théorie. Une nouvelle étude, publiée dans le Journal of Social Media in Society, vient renforcer les doutes déjà bien présents sur l’existence même des bulles de filtres algorithmiques. Elle explique aussi comment notre réseau contribue à contrebalancer les effets potentiellement négatifs des algorithmes.


Les algorithmes n’ont aucune emprise sur la constitution de votre réseau. Or, c’est bien ce réseau qui détermine votre niveau d’exposition à des informations diversifiées.


Les résultats en bref

La majorité des répondants (87,1%) sont confrontés à des points de vue différents des leurs. Une minorité n’est que rarement (11,1%) ou jamais (1,8%) confrontée à des informations qui divergent de leurs croyances.
L’exposition à ces points de vue différents est principalement le fait de connexions « faibles », c’est-à-dire de personnes du réseau avec lesquelles les répondants n’entretiennent que des relations éloignées. Les connexions « fortes » (famille, amis proches) contribuent significativement moins à l’exposition à des sujets divergents des opinions des répondants.

Une des explications avancées tient à la multiplication des identités online des individus. Le concept de « silo idéologique » (cf. Sunstein 2003, 2017) n’a de sens que si un individu possède une seule identité. Or, aujourd’hui, notre présence online nous conduit à avoir plusieurs identités adjacentes, qui se chevauchent parfois les unes les autres. Mon identité sur Linkedin n’est pas la même que sur Facebook, ni sur un forum consacré à un de mes hobbys. Ces différents lieux d’expression, centrés autour de mes besoins et des identités qui en résultent, impliquent également des réseaux différents. Il est fréquent que ces réseaux se recoupent et que des « amitiés » se partagent sur plusieurs réseaux avec le temps.


L’expérience

L’étude est basée sur une enquête online auprès d’utilisateurs de Facebook (N=271). La méthode diffère de celle de Bakshy et al. (2015) menée également sur Facebook mais sur un échantillon beaucoup plus large.
Les données sont en outre de nature déclarative, là où Bakshy et al. utilisaient des données observées.
Néanmoins l’étude a le mérite de discriminer entre liens forts et faibles. L’utilisation de perceptions rapportées par les répondants est également commune. Plusieurs autres études sont citées qui ont recours à cette approche méthodologique.
Un point méthodologique intéressant mérite d’être souligné. Les auteurs utilisent l’index de Herfindahl-Hirschman pour mesurer la diversité dans le réseau des répondants. Les résultats indiquent que les facteurs « ethnicité » et « religion » sont fortement corrélés à la diversité des opinions auxquelles les répondants sont confrontés. En d’autres termes, avoir dans son réseau des personnes d’ethnicité et/ou de religion différentes, augmente significativement la probabilité d’être exposé à des opinions différentes des siennes.


Sources

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130-1132.

Min, S. J., & Wohn, D. Y. (2020). Underneath the Filter Bubble: The Role of Weak Ties and Network Cultural Diversity in Cross-Cutting Exposure to Disagreements on Social Media. The Journal of Social Media in Society, 9(1), 22-38.



Publié dans Data et IT.

Donnez votre avis

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *