Le blog de l'agence marketing IntoTheMinds
Etude de marché et coaching d'entrepreneurs

Intelligence artificielle : nous avons besoin d’algorithmes plus respectueux

Partager cet article sur

Les développements de l’intelligence artificielle (IA) sont une source de préoccupation pour plusieurs raisons. Tout d’abord, L’IA menace les emplois, la vie privée et notre liberté perçue. Deuxièmement, 99,99% de la population ne comprend pas vraiment ce qu’est l’IA.
Dans l’article d’aujourd’hui j’aimerais aborder ce que j’appelle l’intelligence artificielle respectueuse et vous expliquer ce qui doit être fait pour parvenir à développer des algorithmes « intelligents », dotés d’une sensibilité qui nous fasse les aimer.

Pourquoi avons-nous besoin de d’intelligence artificielle respectueuse ?

La technologie doit être au service des humains. Pas le contraire. Cette idée essentielle est très bien développée dans le livre de Cathy O’Neil, «Weapons of Math Destruction». Comme tout autre outil inventé par l’homme, le Big Data, l’intelligence artificielle et son corollaire algorithmique doivent être exploités pour permettre à l’Homme de révéler son plein potentiel. Pourtant, comme l’explique O’Neil dans son ouvrage, l’IA a tendance à être principalement utilisée pour asservir d’autres hommes et pour augmenter les inégalités. La raison est simple. Il y a une fortune à amasser grâce à l’IA et c’est pourquoi 6 mastodontes de l’informatique se sont associés pour diffuser leur vision dans la société avant que cette dernière n’ait le temps de se rebiffer.

Nous avons besoin d’algorithmes respectueux

Alors que des efforts sont faits assurer aux internautes plus de transparence en matière de vie privée, la création d’algorithmes respectueux est à mon avis une tâche beaucoup plus compliquée. Pour éviter la création d’algorithmes malfaisants (« Weapons of Math Destriction »), il faut que leurs concepteurs mêmes travaillent non seulement la défense de l’intérêt de l’entreprise mais aussi à celle des utilisateurs. L’entreprise n’est pas la seule à devoir retirer une valeur de l’exploitation des algorithmes. Les utilisateurs ont également ce droit.

Un défi encore plus important pour un Data Scientist est d’être autorisé à procéder de la sorte. En d’autres termes, une entreprise doit être convaincue que le respect des utilisateurs, par le focus sur la valeur qu’ils extraient de l’utilisation d’algorithmes, est plus important sur le long-terme que la valeur immédiate qu’en a l’entreprise.
N’est-il d’ailleurs pas complètement incongru qu’une règle aussi basique que « la satisfaction crée la fidélisation » semble passer de plus en plus au second plan ?

Fidélisation par design mais pas par choix

L’intelligence artificielle a apporté une révolution en termes de marketing. Le rêve d’un marketing personnalisé, individualisé, est sur le point de se concrétiser.
Les algorithmes ont permis de s’adapter d’anticiper nos comportements et d’apprendre d’eux. Améliorer la fidélisation est ainsi devenu une gymnastique algorithmique qui pousse le consommateur à racheter encore et encore. Mais est-ce vraiment la définition de la fidélisation ? Sans doute pas. La fidélisation réelle vient du désir d’être attaché à une marque. Je peux rester fidèle à une marque, avoir des sentiments positifs envers elle, sans nécessairement acheter compulsivement ou de manière régulière.
Au contraire je peux acheter très régulièrement auprès d’une marque sans y être nécessairement attachée. Prenez Uber par exemple. J’ai l’habitude d’utiliser ses services mais je n’éprouve pas de sentiments très forts à son égard. En fait, si un service équivalent était disponible je préfèrerais sans doute le privilégier, au détriment d’un autre qui entraîne l’exploitation des conducteurs et favorise l’évasion fiscale (les bénéfices d’Uber échappent à l’impôt via un mécanisme complexe).

Comment développer des algorithmes respectueux ?

Dans un article précédent je soutenais que nous devions « ouvrir les modèles algorithmiques« , les rendre plus transparents. Les algorithmes opaques, les « black boxes« , sont dangereux parce qu’il est difficile, voire impossible, d’en contrôler le fonctionnement, d’en vérifier le mécanisme. C’est ainsi que les algorithmes malfaisants naissent : par l’insuffisance des possibilités de contrôle.
Non seulement les algorithmes respectueux doivent être plus transparents, mais ils doivent également être le produit de d’une réflexion commune entre leurs créateurs et ceux qu’ils sont censés servir. C’est ce que l’on appelle la co-création. Comme BNP Paribas a co-créé sa politique de confidentialité, les leaders de demain en matière de Data Science se tourneront de plus en plus vers les clients finaux pour créer leurs algorithmes. J’en suis intimement persuadé. Si un consentement doit être obtenu pour recueillir et utiliser les données des internautes, pourquoi ne pourrait-il pas en être de même avec les algorithmes ?

En conclusion

Le temps est venu de mettre un terme au mode de décision unilatéral qui prévaut dans la conception d’algorithmes.  C’est un fait que les consommateurs ne savent pas toujours ce dont ils ont besoin. Tout le monde connaît la célèbre citation d’Henry Ford.
Même si les consommateurs ne parviennent pas à se représenter le monde de demain, cela signifie-t-il que les innovations peuvent être créées en faisant abstraction de l’avis de ceux et celles dont les vies seront impactées par ces mêmes innovations ?

Étiquettes : ,

Auteur: Pierre-Nicolas Schwab

Pierre-Nicolas est Docteur en Marketing et dirige l'agence d'études de marché IntoTheMinds. Ses domaines de prédilection sont le BigData l'e-commerce, le commerce de proximité, l'HoReCa et la logistique. Il est également chercheur en marketing à l'Université Libre de Bruxelles et sert de coach et formateur à plusieurs organisations et institutions publiques. Il peut être contacté par email, Linkedin ou par téléphone (+32 486 42 79 42)

Partager cet article sur

Envoyer un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *