6 septembre 2017 839 mots, 4 min. de lecture

Equité et transparence des systèmes algorithmiques de recommandation

Par Pierre-Nicolas Schwab Docteur en marketing, directeur de IntoTheMinds
Le dernier jour de la conférence RecSys 2017, j’ai eu l’insigne honneur de faire partie du comité d’organisation d’une session spéciale d’une journée consacrée à l’équité, la responsabilité et la transparence dans les systèmes de recommandation (le nom de cette […]

Le dernier jour de la conférence RecSys 2017, j’ai eu l’insigne honneur de faire partie du comité d’organisation d’une session spéciale d’une journée consacrée à l’équité, la responsabilité et la transparence dans les systèmes de recommandation (le nom de cette session était « F.A.T.REC » pour « fairness, accountability and transparency in recommendation systems »). Cette session qui a réuni une trentaine de participants a été la première dans son genre à être organisée au sein de la communauté RecSys; La conférence est en effet généralement très orientée « technologie » et Joe Konstan, qui fait partie des fondateurs de Recsys, appelait lors d’une séance plénière à dédier plus de place à l’éthique lors l’édition 2018. Mickael Ekstrand, qui présidera la conférence RecSys 2018 à Vancouver et que j’avais invité à Bruxelles pour la conférence inaugurale à Digityser, aura certainement à cÅ“ur de répondre aux souhaits de Joe.

Sur la base des discussions que nous avons eues ce jour-là, il m’a semblé que le principe d’équité dans les systèmes de recommandation algorithmique méritait d’être mieux défini. J’ai en effet eu souvent l’impression que les arguments échangés, bien que très pertinents, dépendaient fortement du contexte.
Pour mieux cerner le contexte de l’équité j’ai réfléchi à trois questions (voir ci-dessous) qu’il me semble pertinent de se poser.

Que signifie (in)iquité ?

L’iniquité ne doit pas être confondue avec la discrimination comme l’a rappelé Krishna Gummadi (Max Planck Institute for Software Systems) dans sa présentation. La discrimination est un type particulier d’injustice.
Définir précisément ce que signifie le mot « inéquité’ est indispensable afin de trouver des remèdes au problème.

Quel est le risque d’être injuste ?

La seconde question que vous devriez vous poser concerne la mesure du risque lié à une certaine inéquité dans les recommandations. Il existe à cet égard une grande différence entre un service de recommandation de musique et un service de recommandation sur un site d’information.

Quelles sont les conséquences de recommandations inéquitables dans le cadre d’un service d’abonnement musical comme Spotify? Au pire on vous recommandera un morceau que vous n’aimera pas et que vous n’écouterez donc pas jusqu’au bout. Les conséquences sont plutôt limitées pour l’utilisateur. Au pire son expérience et sa satisfaction s’en verront dégradées.
Les conséquences peuvent cependant être plus importantes dans le contexte d’un site d’informations, d’un réseau social, où l’utilisateur pourrait être privé de certaines informations voire être exposé à une perspective polarisée.

J’ai essayé de schématiser tout ceci dans la figure ci-dessous

Implication de l’utilisateur importante Implication de l’utilisateur faible
Faible contrôle
Faible transparence
Risque élevé d’iniquité Risque moyen d’iniquité
Contrôle élevé
Transparence élevée
Risque moyen d’iniquité Faible risque d’iniquité

D’après ce schéma le risque le plus élevé d’iniquité apparaît dans des contextes où l’implication du consommateur est élevée, c’est-à-dire dans des contextes avec prise de décision consciente. S’informer sur internet, prendre une décision d’achat importante, choisir un partenaire sur un site de rencontre, sont des exemples de contextes très impliquant. Imaginez que vous deviez acheter une nouvelle voiture et que vous comptiez sur un site web spécialisé pour comparer les fonctionnalités et vous aider à faire un choix. Proposer des recommandations biaisées dans ce contexte aurait des conséquences importantes pour l’utilisateur. Si ce dernier n’est pas conscient de la présence d’un mécanisme de recommandation algorithmique et n’a aucun contrôle sur celui-ci, le risque d’une dérive est donc élevé.
Au contraire, visionner un film recommandé sur Netflix ou se voir recommander un adversaire sur un jeu en ligne n’a qu’un faible risque de créer des dommages à l’utilisateur, même si la recommandation est biaisé et qu’aucun contrôle ne peut être exercé sur l’algorithme. A titre d’exemple John Kolen d’EA Games expliquait lors de la conférence RecSys 2017 que les adversaires lors de parties jouées en ligne sont choisis par l’algorithme pour maximiser le plaisir du joueur. Et croyez-le ou pas l’algorithme ne choisira pas toujours un adversaire faible pour vous faire gagner. EA Games a déterminé des séquences (victoires, défaites, …) qui maximisent le plaisir. Dans certains cas l’algorithme choisira donc un joueur contre qui il est certain que vous perdrez.

L’utilisateur est-il conscient de l’effet de l’algorithme ?

La dernière chose à prendre en considération est la conscience de l’utilisateur de la présence d’un système de recommandation algorithmique. Comme une étude l’a souligné, la plupart des utilisateurs sur Facebook ignorent encore que ce qu’ils voient sur leur fil Facebook est le produit d’une décision algorithmique. Un effort de transparence est donc nécessaire.



Publié dans Data et IT.

Donnez votre avis

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *