4 juillet 2018 1089 mots, 5 min. de lecture

Digitalisation et éthique : l’analyse des émotions couverte par le RGPD ?

Par Pierre-Nicolas Schwab Docteur en marketing, directeur de IntoTheMinds
Un article scientifique signé par Royakkers et al. (2018) est actuellement disponible dans le magazine « Ethique et technologies de l’information » qui offre un aperçu intéressant des questions sociétales et éthiques engendrées par la numérisation (d’où son titre). Les questions de numérisation […]

Un article scientifique signé par Royakkers et al. (2018) est actuellement disponible dans le magazine « Ethique et technologies de l’information » qui offre un aperçu intéressant des questions sociétales et éthiques engendrées par la numérisation (d’où son titre). Les questions de numérisation sont analysées selon 6 axes :

  • protection de la vie privée
  • autonomie
  • sécurité et sûreté
  • rapport des forces
  • dignité humaine
  • pouvoir

Mon intention n’est pas de résumer l’article dans son ensemble mais plutôt d’aborder et de développer un aspect en particulier. Dans l’article d’aujourd’hui j’aimerais donc parler des aspects liés à l’analyse automatique des émotions.
Si vous voulez vous familiariser avec le sujet je vous suggère de jeter un oeil à ce premier article que j’avais publié après avoir rencontré Andrew McStay à la conférence CPDP en 2017 ainsi qu’à cet autre rédigé suite à une présentation lors de la même conférence.

Analyse des informations sensibles

Royakkers et ses collègues soulignent à juste titre que les informations sensibles, par exemple biométriques peuvent être utilisées pour améliorer la sécurité. Dans des applications comme l’identification et la reconnaissance, les informations de nature biométriques sont essentielles pour accorder accès et autorisations. Alors que dans le passé ces applications étaient réservées à des applications « officielles » (par exemple pour les douanes), la puissance de calcul bon marché ainsi que les bases de données d’images permettent désormais que les applications passent la frontière des usages officiels. L’analyse des sentiments, par exemple, est devenue très répandue. Je l’ai personnellement mise en pratique il y a quelques années sur des tweets et des messages publics facebook mais à l’époque cette technique émergente n’avait livré que des résultats très moyens. Mais en quelques années tout a changé, les performances se sont améliorées et l’analyse de sentiments est devenue une technique courante. Utilisés en temps réel et embarqués dans les caméras, les algorithmes d’analyse de sentiments permettent de détecter les émotions des individus passant devant la caméra (voir ici l’exemple des rayonnages intelligents d’AMS présentés au National Retail Show 2018).
Les auteurs écrivent à ce sujet :

« la prochaine génération d’analyse biométrique ne donnera pas seulement un aperçu de « qui vous êtes » mais répondra également à la question « comment vous sentez-vous » (….) Il s’agit ici d’une invasion d’un nouveau territoire de la vie privée, la vie privée mentale ».

Les émotions sont-elles des données personnelles ?

Tout ceci soulève la question de savoir si les émotions sont des données qui relèvent de la sphère privée. Pour répondre à cette question il est utile de s’appuyer sur une lecture du RGPD. Ma réponse est donc « ça dépend ».
Cela dépend tout d’abord de l’enregistrement (ou non) des données. Dans certains cas, les données n’ont pas besoin d’être sauvegardées. Lorsque Saatchi, Clear Channel et Postercope ont lancé leurs affichages « intelligents », il n’était pas nécessaire de sauvegarder les données. Le message publicitaire était personnalisé en fonction de l’émotion de la personne se trouvant devant le dispositif publicitaire. Un ensemble de messages a pu être préchargé qui, en fonction de l’émotion détectée, étaient affichés. Cette application ne nécessitait en soit aucun enregistrement au niveau individuel. Un système conçu en tenant compte du respect de la vie privée (privacy-by-design) ne fournirait dans ce cas que des données agrégées (x% de personnes joyeuses le premier jour, y% de personnes tristes le deuxième jour, etc…).
Si les données sont enregistrées à un niveau plus granulaire la situation devient plus complexe. La première question à se poser est la suivante : est-il vraiment nécessaire d’enregistrer les données à un niveau plus fin pour la finalité prévue ? Il se pourrait qu’une bonne raison existe (par exemple une action de marketing direct après la mesure de l’émotion). Mais dans tous les cas la nature même des données (les émotions sont fugaces) rend obligatoire la mise en place d’un effacement rapide (par exemple après 24 heures). Pourquoi en effet conserver dans une base de données la trace d’une émotion si cette information devient obsolète après 24 heures ?

Un exemple d’analyse d’émotions automatiques appliqué au monde du retail (plus d’infos ici)

Les émotions deviennent des données personnelles si elles sont enregistrées (mais le RGPD pourrait vous interdire de le faire)

De ce qui précède découle naturellement le fait que les émotions sont des données personnelles si elles peuvent être associées à un individu. Du GDPR découle également que les données relatives aux émotions devraient avoir un cycle de vie très court et être effacées rapidement (sauf si vous pouvez justifier d’une bonne finalité mais honnêtement je n’en vois pas).
En dehors de l’Europe, les citoyens seront plus ou moins protégés contre les mauvaises pratiques. Prenons par exemple le cas (voir illustration ci-dessus) des rayonnages de supermarchés intelligents. Parce que les consommateurs dans les supermarchés achètent toujours les mêmes articles dans les mêmes points de vente, il est fort probable que vous engistrerez les mêmes visages chaque semaine. Une mauvaise pratique potentielle serait donc d’enregistrer les émotions sur une base hebdomadaire et d’analyser l’évolution émotionnelle d’un individu. Il s’agit ici d’une application très discutable et peu éthique.

Conclusion

L’état émotionnel d’une personne est une données qui est par nature hautement personnelle et privée. Les progrès de l’intelligence artificielle permettent d’analyser les émotions en temps réel, ce qui ouvre de nouvelles perspectives dans de nombreux secteurs (par exemple la publicité).
Dans le cas où de telles informations sont enregistrées et sauvegardées le cadre juridique du GDPR imposerait que le cycle de vie de ces informations soit très court, ce qui semble parfaitement logique eu égard au caractère très temporaire de cette donnée. Cependant, le GDPR ne s’applique qu’en Europe et aux citoyens européens, ce qui laisse la porte ouverte aux États-Unis (entre autres) à des pratiques douteuses.

Image : shutterstock



Publié dans Data et IT.

Donnez votre avis

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *