21 septembre 2016 1065 mots, 5 min. de lecture

Comment nous nous adaptons aux attentes des algorithmes

Par Pierre-Nicolas Schwab Docteur en marketing, directeur de IntoTheMinds
La technologie et en particulier les algorithmes ont envahi l’espace public. Selon Alain Damasio « La liberté est plus un concept désirable« . La sécurité et la facilité d’utilisation sont les premiers leviers de succès ; le succès des moteurs de recommandation est […]

La technologie et en particulier les algorithmes ont envahi l’espace public. Selon Alain Damasio « La liberté est plus un concept désirable« . La sécurité et la facilité d’utilisation sont les premiers leviers de succès ; le succès des moteurs de recommandation est là pour le prouver.
Nous sommes désormais entourés par du code informatique qui nous materne, nous souffle des recommandations et prend des décisions à notre place. Le moteur de recherche de Google nous fait des suggestions de recherche, celui de Netflix nous dit quoi regarder, et l’algorithme de Facebook (EdgeRange) quoi lire sur nos « murs ».

Ces algorithmes nous aident forcément un peu. La quantité d’informations qui nous entourent est tout simplement énorme (l’infobésité que dénonce JL Servan Schreiber dans son dernier livre) et sans algorithmes nos comportements en ligne seraient sans doute moins efficaces, plus heuristiques. Pourtant, ces algorithmes ont également un effet très pervers. Ils nous poussent à changer nos propres comportements, à être plus disciplinés pour répondre aux sollicitations de l’algorithme et à faire ce qu’il attend de nous.

Prenons deux exemples: Facebook et Netflix.

Les utilisateurs de Facebook changent leurs comportements pour être plus visibles

Considérons tout d’abord l’algorithme de Facebook appelé EdgeRank. Bien que sa mécanique reste cachée dans une boîte noire fermée à double tour, les experts s’accordent pour dire que le succès d’un « statut » Facebook dépendra de son nombre de likes, de commentaires et de partages. La popularité de l’auteur jouera également un rôle.
Comme Taina Bucher le montre remarquablement dans un article de 2012, EdgeRank a instauré un mécanisme de récompense auquel les utilisateurs sont devenus accrocs. La monnaie utilisée par EdgeRank s’appelle la visibilité. Elle écrit :

In Facebook there is not so much a ‘threat of visibility’ as there is a ‘threat of invisibility’ that seems to govern the actions of its subjects. The problem as it appears is not the possibility of constantly being observed, but the possibility of constantly disappearing, of not being considered important enough. In order to appear, to become visible, one needs to follow a certain platform logic embedded in the architecture of Facebook.

Traduction Libre :

Dans Facebook il n’y a pas tant une «menace de visibilité» qu’une «menace d’invisibilité» qui semble régir les actions des utilisateurs. Le problème tel qu’il apparaît n’est pas la possibilité d’être constamment observé, mais plutôt la possibilité de disparaître en permanence, de ne pas être considéré comme assez important. Afin d’apparaître, pour devenir visible, il faut suivre une logique inhérente à l’architecture de Facebook.

L’algorithme « éduque » (pour ne pas dire « dresse ») ses utilisateurs, qui d’ailleurs ne sont pas dupes. Ils remarquent en effet l’impact de l’algorithme (comme les études de Rader et Gray (2015) et Eslami et al. (2015) l’ont montré). Comme dans une gigantesque expérience pavlovienne, les utilisateurs de Facebook attendent leur récompense (leur dose de visibilité) en échange de leur comportement algorithmiquement-conforme. Comme Bucher l’écrit :

EdgeRank, en fonctionnant comme une discipline imposée, crée des sujets qui modifient sans cesse leur comportement afin de se rapprocher de la normale.

Netflix crée les films qui obtiendront les meilleures notes

Le moteur de recommandation de Netflix utilise les notations pour prédire les films qu’un client est susceptible d’apprécier. Netflix a accumulé des connaissances considérables dans les détails qui sont corrélés à la notation d’un film et la propension d’un client à le consommer. L’étude de facteurs très divers leur a permis de produire une segmentation qui rompt complètement les règles socio-démographiques habituelles. Netflix a une connaissance algorithmique fines de l’influence des caractéristiques de chaque film, permettant ainsi de créer une recette sur-mesure maximisant les chances de succès (c’est-à-dire maximisant la probabilité d’avoir de bonnes évaluations). Hallinan et Striphas (2016) expliquent ce phénomène :

La collecte et l’interprétation des données percolent dans de nombreuses facettes de la prise de décision des entreprises, du blocage des acquisitions potentielles à l’élaboration du contexte des acquisitions. Netflix est n’embauche pas seulement des auteurs dont la vision l’emporte sur tout le reste. Dans le cas de Orange is the new black, Sarandos rapporte que Netflix a influencé le choix du casting pour satisfaire aux suggestions des algorithmes en ce qui concerne le choix d’acteurs susceptibles de plaire aux téléspectateurs et de générer de nouveaux abonnements (cité dans Rose, 2013). La société a franchi une étape tout aussi radicale lorsqu’elle a choisi de mettre en ligne en une fois une saison entière d’une série, plutôt que de programmer la diffusion d’un nouvel épisode par semaine à une heure régulière. L’abandon programmation fixe, pratique habituelle en télévision, au profit du « binge watching » est née de l’analyse des données de Netflix, qui a montré que ses clients avaient tendance à regarder plusieurs épisodes l’un à la suite de l’autre. Cette découverte a affecté à la fois la structure et le contenu de ces émissions, en permettant notamment aux scénaristes de supprimer les rappels en début d’émission, les techniques de cliffhangers et autres dispositifs narratifs destinés à garder les téléspectateurs entre les pauses publicitaires. Alors que Netflix s’est abstenue de décrire comment les données influençaient leurs décisions de production, Sarandos a affirmé que l’objectif de la société est « une optimisation de ses meilleurs émissions » grâce à des données factuelles (cité dans Karpel, 2012).

Conclusion

Les cas de Facebook et de Netflix montrent comment les comportements peuvent être modifiés (implicitement ou pas) pour répondre aux attentes des algorithmes. Dans le premier cas les utilisateurs changent leurs attentes; dans le second cas, les producteurs adaptent le contenu de leurs émissions afin d’optimiser la réponse de l’algorithme.
Le danger de la réglementation algorithmique (au-delà de la perte de liberté déjà abordée ici) est la normalisation des comportements. « Commentaires et participations deviennent des actions à travers lesquelles le sujet peut se rapprocher de la normalité souhaitée » (Bucher 2012).
Et qu’est-ce qu’une société où tous les membres tendent vers la normalité? Une société médiocre.



Publié dans Data et IT, Innovation, Marketing, Recherche.

Donnez votre avis

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *