27 avril 2018 533 mots, 3 min. de lecture

La révolution des Big Data a débuté il y a 200 ans

Par Pierre-Nicolas Schwab Docteur en marketing, directeur de IntoTheMinds
Dans son dernier article, Antoinette Rouvroy (que je suis de très près pour ses travaux sur la gouvernance algorithmique) développe une thèse intéressante. La révolution Big Data actuelle serait le prolongement logique de changements fondamentaux ayant débuté 200 ans plus […]

Dans son dernier article, Antoinette Rouvroy (que je suis de très près pour ses travaux sur la gouvernance algorithmique) développe une thèse intéressante. La révolution Big Data actuelle serait le prolongement logique de changements fondamentaux ayant débuté 200 ans plus tôt. Nous vous proposons d’examiner ceci dans le détail.

Chiffres et statistiques sont de plus en plus utilisés depuis les 18ème et 19ème siècle

Le Big Data est, comme chacun le sait, basé sur la collecte massive de données et serait, selon A. Rouvroy, le prolongement de changements antérieurs ayant commencé avec l’utilisation croissante des chiffres au XVIIIe siècle et l’émergence des statistiques au XIXe siècle. Une bonne illustration de cette dernière est l’une des premières visualisations « Big Data » jamais réalisées, celle réalisée par Charles Booth et ses assistants (voir notre article ici).
Rouvroy cite notamment Hacking qui parle d’une « avalanche de chiffres imprimés » au XIXe siècle. Voici l’extrait en question du livre de Hacking :

« Graunt et les Anglais ont commencé à utiliser les statistiques à des fins publiques. Les peuples de la péninsule italienne et d’ailleurs ont inventé la notion moderne d’État. Mais ce sont des penseurs et les hommes d’État allemands qui ont fait prendre conscience que l’État-nation est essentiellement caractérisé par ses statistiques et, par conséquent, requiert un organe de production de statistiques pour se définir et asseoir son pouvoir »

Au-delà du visible (et du compréhensible) : la recherche de corrélations inconnues

Tous les algorithmes sont basés sur le principe de la modélisation, le calcul de corrélations entre des variables apparemment sans rapport entre elles. L’utilisateur dont les données sont traitées devient un « modèle » en soi comme l’a fait justement remarqué le philosophe Dominique Cardon.

A. Rouvroy propose que la recherche de corrélations et les prédictions basée sur des « indices de comportement » (traduction libre, A. Rouvroy les nomment « small patterns« ) sont dans le prolongement des méthodes d’enquête criminelle de la fin du XIXe siècle qui utilisent des indices pour confondre les criminels ou, dans les Arts, la méthode Morelli qui est basée sur l’analyse d’indices offerts par des détails insignifiants plutôt que sur la composition dans son entièreté, ou le traitement du sujet, plus aisément falsifiables car susceptibles d’être appréhendés par les étudiants, les copistes et les imitateurs.

Qu’est-ce qui distingue la révolution Big Data des évolutions antérieures ?

A. Rouvroy pense que les différences entre la révolution actuelle du Big Data et les changements antérieurs se matérialisent de la manière suivante :

  • Les algorithmes font disparaître le lien avec le monde « sensible » : en d’autres termes, les données sont capturées hors de leur contexte de production.
  • Les algorithmes détectent des indices de comportements plutôt que ce que nous avons fait, qui nous sommes, et les raisons derrière nos actes.
  • Les algorithmes permettent le passage de la réaction à l’anticipation.


Publié dans Data et IT.

Donnez votre avis

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *