Big Data : pourquoi la question de l’éthique est centrale ?

Big Data : pourquoi la question de l’éthique est centrale ?

L’intelligence artificielle est de plus en plus présente dans notre vie quotidienne: reconnaissance de la parole et son cortège d’assistants vocaux, traduction automatique, chatbots, algorithmes de recommandation. Ces avancées technologiques font l’objet de critiques et de questionnements éthiques importants. Comment nos données sont-elles traitées, les algorithmes nous gouvernent-ils, qu’est-ce que le concept de liberté ?

S’il y a encore beaucoup à faire pour enseigner aux utilisateurs les côtés positifs et négatifs de l’intelligence artificielle,  il y a encore plus à faire pour les sensibiliser à son impact sur leurs vies. Est-ce une tâche dévolue à nos gouvernements ou à des entreprises commerciales ?

Pourquoi il est urgent d’entamer le débat sur l’éthique et l’intelligence artificielle

Les progrès de l’intelligence artificielle ont permis d’automatiser des tâches effectuées jusqu’à présent par les humains : conduire des voitures, faire communiquer des personnes de langues maternelles différentes, vous suggérer quoi faire, quoi regarder, quoi lire ou quoi écouter. L’intelligence artificielle est en train d’envahir la sphère de la responsabilité humaine, ce qui nous pousse à « externaliser » les tâches qui étaient dans le passé du ressort des êtres humains. L’action humaine, avec tous ses défauts, est en passe d’être remplacée par une mécanique promettant l’infaillibilité. Or, nous autres, humains, avions en nous une partie d’imprévisibilité qui présentait bien des avantages. Elle simplifiait notamment certaines problématiques relevant de l’éthique. Prenons un exemple simple et maintes fois lu dans la presse : conduire une voiture.

Les accidents mortels se produisent malheureusement tous les jours sur nos routes. La plupart d’entre eux sont le fruit du « hasard », d’une combinaison malheureuse d’erreurs qui dans un espace probabiliste convergent tout d’un coup. Notre cerveau et notre corps ne sont pas faits pour résoudre les situations critiques en quelques millisecondes, ce qui explique que ces accidents ne puissent être évités. Le temps de réaction requis pour corriger la situation est au-delà de nos capacités physiques et physiologiques ; mais pas de celles de l’intelligence artificielle au cœur des voitures autonomes. Avec ces dernières, un accident pourrait dès lors relever d’un choix conscient : dans une situation d’urgence, est-il « préférable » de tuer ses quatre passagers plutôt que la personne enceinte risquant d’être percutée à 50 mètres de là ?

Ce que nous promet l’intelligence artificielle, c’est de trouver la meilleure option en quelques millisecondes (regardez par exemple l’état actuel du marché de la publicité en ligne où les ordinateurs prennent des millions de décisions en quelques millisecondes et décident d’afficher telle pub plutôt que telle autre). Les décisions prises grâce à l’intelligence artificielle sont conscientes en ce sens qu’elles reflètent la meilleure option à chaque instant. Le niveau de conscience atteint par la machine dépasse de loin ce dont un être humain est capable.

Les GAFA s’allient pour promouvoir l’intelligence artificielle

Comment devons-nous réagir aux utilisations multiples de l’intelligence artificielle dans nos vies de tous les jours ?

Les GAFA ont clairement une vision qu’ils aimeraient nous imposer. C’est sans doute dans cette perspective que Google, DeepMind, Amazon, Facebook, Microsoft et IBM se sont associés pour créer une société sans but lucratif dénommée le « Partenariat sur l’intelligence artificielle au bénéfice des personnes et de la société ». Cette organisation aura pour but la recherche sur les sujets aux intersections de l’éthique et de l’intelligence artificielle, la recommandation de bonnes pratiques et la publication des résultats sous une licence Creative Commons. Ce consortium entend éduquer et écouter les utilisateurs, mais également les organismes qui régissent notre société. Il affirme toutefois ne pas avoir l’intention d’exercer d’activités de lobbying.

Cela ressemble à s’y méprendre à la manière dont s’est structurée l’industrie pharmaceutique : formation de sociétés à but non lucratif pour informer les corps dirigeants, financement de recherches, achat de revues scientifiques et enfin contrôle sur les résultats publiés.

L’annonce faite par les GAFA est inquiétante. Les entreprises à but lucratif ne peuvent en effet pas être neutres. Elles cherchent à atteindre des objectifs d’abord financiers même si ces derniers peuvent entraîner des conséquences négatives pour certaines parties. Les exemples les plus évidents sont bien entendu l’extraction des ressources naturelles, l’industrie du tabac, l’industrie pharmaceutique (que ce soit le taux inquiétant de médicaments inefficaces ou les énormes marges réalisées sur d’autres). Prenons un exemple moins évident, celui d’un service a priori bénéfique pour l’utilisateur : Netflix. Comme vous le savez peut-être, l’intelligence artificielle est au cœur du succès de Netflix. 80% de ce que regardent les abonnés provient de recommandations faites par des algorithmes. En d’autres termes, le prochain film que vous regarderez est très susceptible d’avoir été suggéré par une machine. Voici ce que Neil Hunt, Directeur des produits chez Netflix, pense de ses services :

« Netflix ne peut pas faire la différence entre une vie plus riche et l’addiction »

Neil Hunt, conférence RecSys 2014

Cette question éthique essentielle (sommes-nous encore libres ou les esclaves d’un algorithme) ne tracassera sans doute pas beaucoup Neil Hunt. Après tout, le seul paramètre qui compte pour lui est la fidélisation de ses clients, dût-elle se faire au prix de leur asservissement.

La réflexion sur l’éthique et l’intelligence artificielle devrait être l’apanage des organisations publiques

Parce que les sociétés commerciales ne peuvent, de par leur nature, qu’adopter un point de vue biaisé, il ne faut pas compter sur elles pour trancher le nœud gordien de l’éthique. Les seules entités auxquelles nous pouvons éventuellement faire confiance sont les organismes publics. Parce qu’ils n’ont pas de comptes à rendre à leurs actionnaires, ils sont les seuls capables de prendre une perspective à long terme sur les effets de l’intelligence artificielle. Ce serait la faillite de notre système que de déléguer cette tâche essentielle au GAFA.

Ne nous y méprenons pas. L’intelligence artificielle peut devenir une arme de destruction massive. Des leaders d’opinions comme Stephen Hawking et Elon Musk s’en sont déjà émus publiquement.

Il y a un besoin urgent de sensibiliser nos gouvernements et les organismes publics à ces questions. Le plus grand obstacle est sans doute le manque de connaissances de nos élites dans ce domaine. Comme souvent, ceux qui sont les plus actifs sont aussi ceux qui ont le plus à perdre. Dans le cas de l’intelligence artificielle, les GAFA sont ceux qui auraient le plus à souffrir d’une régulation protégeant le consommateur. Cela explique leur vigueur.

Image: Shutterstock


Publié dans Data et IT, Marketing.