17 octobre 2016 488 mots, 2 min. de lecture

Big Data et éthique : comment Meetup.com conçoit ses algorithmes

Par Pierre-Nicolas Schwab Docteur en marketing, directeur de IntoTheMinds
S’il y a eu beaucoup de présentations intéressantes lors de la conférence RecSys 2016 à Boston, celle d’Evan Estola (Meetup, New York) m’aura particulièrement marquée. La présentation n’était certes pas aussi technique que celles auxquelles ce genre de conférence nous […]

S’il y a eu beaucoup de présentations intéressantes lors de la conférence RecSys 2016 à Boston, celle d’Evan Estola (Meetup, New York) m’aura particulièrement marquée.
La présentation n’était certes pas aussi technique que celles auxquelles ce genre de conférence nous habitue (même si Evan a lui-même un profil plutôt technique); elle a plutôt donné au public présent une perspective inhabituelle sur les problèmes d’éthique liés au Big Data.
Evan a commencé par donner des exemples de systèmes de recommandation qui ont déraillé. Il y a eu la polémique dont Orbitz a fait les frais à cause d’une différence de traitement entre les possesseurs de PC et Mac ; puis des résultats de recherche aux relents racistes ; et enfin des recommandations faites par Amazon pour acheter le petit kit du parfait dealer de drogue. Les exemples ne manquent pas et montrent que les créateurs des algorithmes doivent également se soucier des limites de leur système.

Evan a ensuite expliqué comment l’éthique fait partie des valeurs prises en compte dans les recommandations faites sur Meetup. Et c’est là qu’est sans doute la partie la plus inspirante. Evan a pris l’exemple des groupes (meetup) axés sur la technologie qui ont lieu à New-York. Un algorithme classique « verrait » immédiatement que la majorité des participants sont de sexe masculin et pousseraient donc ses recommandations en priorité vers les cibles masculines afin de maximiser les inscriptions. Pourtant Evan a fait valoir que le sexe ne devait pas être pris en compte dans le modèle de recommandation au risque de renforcer un biais hommes/femmes déjà trop présent dans notre société. Quel courage ! Je me rappellerai encore longtemps de ce qu’a dit Evan :

«Vous devez décider des variables à ne pas inclure dans votre algorithme »
Evan Estola, RecSys 2016

Le choix conscient d’exclure une variable et donc, par définition, de biaiser les résultats de la recommandation est un choix qui peut se révéler éthique par nature. Les biais ne sont pas nécessairement mauvais. Je pense qu’ils sont même nécessaire lorsqu’ils permettent une discrimination positive. Une machine ne comprend pas l’éthique. Une machine n’a pas de sentiments. Une machine ne comprend pas les différences culturelles.
Nous devons  absolument sortir des pièges de l’optimisation des moteurs de recommandation à des fins financières. Nous devons repenser la place du client et devons nous pencher sur le concept de «valeur». De meilleures recommandations ne signifient pas nécessairement plus de valeur pour le client. Regarder 10 heures par jour les films recommandés par Netflix rendra-t-il votre vie plus riche ? J’en doute.
Je conclurais avec cette autre citation d’Evan :

« L’algorithme le plus optimal n’est peut-être pas le meilleur à mettre en production »

Image : Shutterstock



Publié dans Data et IT, Innovation, Marketing.

Donnez votre avis

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *