Le big data est-il un danger sociétal ?

 |  | 1046 mots
Lecture 5 min.
(Crédits : Agence Prisme / Pierre Jayet)
Qu'adviendra-t-il si le bien et le mal, ainsi que les valeurs qui définissent notre humanité s'inversent soudainement chez celles et ceux qui, sans transparence, seront demain aux manettes algorithmiques ? Telle est l'une des questions soulevée par Yannick Chatelain, professeur associé à Grenoble École de Management et l’auteur d'ouvrages sur le digital marketing, le big data, le hacking ou la cybercriminalité.

Le big data est un concept, évoqué pour la première fois en 1997 et popularisé dans les années 2012, visant à exprimer un volume considérable de données. Ces données sont désormais en mesure d'être traitées pour en extraire la substantifique moelle et leur donner du sens. Qui dit big data et recherche de sens, dit algorithmes. En ce qui concerne les algorithmes liés au big data, ils sont, pour caricaturer, les "ouvriers" experts préposés à l'extraction de sens. L'enjeu consiste donc à formaliser la mission qui va leur être assignée.

Le big data qui concerne tant les entreprises que les états est-il un danger sociétal ? Quitte à ne pas souscrire à une "technofacination" béate et  passer pour un oiseau rétrograde de bien mauvais augure, commençons par visiter le musée du pire.

Liberté d'expression

Parmi les missions qui peuvent être assignées aux algorithmes du big data, vous serez enthousiasmés d'apprendre qu'à l'heure où j'écris, le big data et la surveillance de masse vivent une véritable idylle. De l'autre côté de l'Atlantique, le FBI se vantait récemment de pouvoir accéder, "quasiment en temps réel, aux 500 millions de publications quotidiennes sur Twitter" [1]. Comme d'autres pays, la France, n'est pas en reste. D'aucuns ont entendu parler des "boîtes noires", "livrées" (sans budgétisation ni mode d'emploi) avec la "loi sur le renseignement". Boîtes noires qui à ce jour ne sont toujours pas mises en place.

Ces "boîtes noires" représentent-elles un danger sociétal ? Est-ce un danger pour une société que d'avoir quelques individus - une autorité administrative amputée de juge judiciaire - assignant à des algorithmes (à venir) la mission de trier des millions de datas, pour isoler le bon comportement citoyen du mauvais ? Est-il admissible qu'une poignée d'individus s'arrogent la faculté de définir le bien et le mal sur la base de leurs propres valeurs et moralité ? Qu'adviendra-t-il alors si le bien et le mal (perceptible, a priori, par tous et toutes dans ses grandes lignes) et les valeurs qui définissent notre humanité s'inversent soudainement chez celles et ceux qui, sans transparence, seront demain aux manettes algorithmiques ? Les valeurs dans notre monde n'ont-elles pas un jour déjà dérivé jusqu'à s'inverser ?

Quoiqu'il advienne demain, l'annonce de leur mise en place programmée à d'ores et déjà altéré la liberté d'expression, encouragé la dissimulation, entrouvert la porte de l'autocensure. Une belle réussite d'un pays si soucieux de liberté d'expression. Une telle aberration laisserait un Georges Orwell pantois.

Big data, algorithmes et éthique

Pour autant, le big data n'a pas pour vocation d'être nuisible. Son destin est en cours d'écriture ! Il est, il sera ce que les hommes en feront. Lorsqu'en 2016 Orange décide de "mixer les données de Météo France à la géolocalisation de ses abonnés. Et confier le tout au Machine Learning [2]" c'est dans le but louable de protéger les Livebox des surtensions qu'occasionne à la foudre.

D'autre part, la possibilité de traiter des masses de données est un gisement de créativité : des sens inédits peuvent émerger à l'infini et offrir des pistes inexplorées jusqu'alors par les entreprises. Il serait raisonnable, pour qui travaille sur le big data et les algorithmes, de méditer les sages propos de Simone de Beauvoir :

"Combien de fois l'Homme s'est exclamé en contemplant le résultat inattendu de son action : « Je n'avais pas voulu cela ! » Nobel croyait travailler pour la science : il travaillait pour la guerre. Épicure n'avait pas prévu ce que l'on appela plus tard l'épicurisme ; ni Nietzche le nietzscheisme ; ni le Christ l'inquisition. Tout ce qui sort des mains de l'homme est aussitôt emporté par le flux et le reflux de l'histoire, modelé à neuf par chaque nouvelle minute, et suscite autour de soi mille remous imprévus."

La prise de conscience des enjeux sociétaux

Le danger du big data et de ses algorithmes, n'est pas un danger sociétal fantasmé si la mission est dévoyée. Mais il est concomitamment une opportunité et peut s'avérer porteur de formidables avancées humaines.

Il est rassurant de constater que certains acteurs majeurs du numérique ont pris la mesure des enjeux : un fonds pour l'éthique et la gouvernance de l'intelligence artificielle ("Ethics and Governance of Artificial Intelligence Fund") a été ainsi crée par Reid Hoffman, l'un des fondateurs du réseau LinkedIn, Omidyar Network, firme d'investissement philanthropique créée par le fondateur d'eBay et la Fondation Knight. Ce fonds, doté de 27 millions de dollars, se donne pour mission avec leurs partenaires académiques (le MIT Media Lab et le Berkman Klein Center for Internet & Society de Harvard) d'associer fortement les sciences sociales dans la réflexion sur la bigdataisation de nos sociétés. Il s'agit d'en comprendre l'impact, de penser un cadre éthique, pour nous prémunir collectivement d'un grand n'importe quoi.

Pour ne pas conclure

Un tel sujet complexe ne se résout pas par le simplisme même si certains apprentis sorciers voudraient le faire croire aux populations pour imposer un monde mis au service de leurs seuls intérêts - qu'ils soient marchands ou au service du contrôle social. Il s'agit dès lors d'expliquer, de vulgariser pour que chacun et chacune se sentent impliqué, puisse prendre position, voire alerter, lorsqu'une dérive est constatée.

D'autres zones de dangers sociétaux existent : qui dit big data, dit data centers, une manne financière peut-être, mais des voraces insatiables d'énergie... alors que l'on parle d'une pénurie de ressources annoncée, d'une Afrique sans lumière, dans un monde prônant l'éco-responsabilité. Sur ce sujet, le silence est hurlant. Et, n'en déplaise les datas centers ne sont pas tous refroidis par les Fjords comme l'est celui GreenMountain en Norvège.

[1] Grondin Anaelle. Plus aucun tweet n'échappera au FBI. Mise à jour le 17 novembre 2016. [En ligne]. https://www.lesechos.fr/17/11/2016/lesechos.fr/0211504197876_plus-aucun-tweet-n-echappera-au-fbi.htm  [consulté le 9 avril 2017].  [2] Reynald Fléchaux. Big Data : le Machine Learning protège les Livebox Orange de la foudre. Mise à jour le 11 mars 2016. [En ligne]. http://www.silicon.fr/big-data-machine-learning-protege-livebox-orange-foudre-141346.html [consulté le 9 avril 2017].

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :