De la société disciplinaire à la société algorithmique : considérations éthiques autour de l’enjeu du Big data
Résumé
C’est en reprenant les écrits de Michel Foucault (1975) et de Gilles Deleuze (1990) sur le passage observé d’une société disciplinaire à une société de contrôle que nous démontrerons la nécessité de penser la singularité des dispositifs qui surveillent et punissent à une époque où le développement de la technologie rend possible l’accumulation massive de données et leur traitement par les algorithmes. En développant la proposition d’une entrée dans l’ère de la société algorithmique, et en renvoyant là-dessus aux travaux d'Antoinette Rouvroy (2013), nous démontrerons de quelle manière nous assistons à la mise en place d’un dispositif spécifique engendrant de nouveaux agencements et de nouvelles formes d’individualités basées sur les profils. En bref, cet article propose, par la proposition du terme de « société algorithmique », de mieux saisir le phénomène sociétal actuel engendré par les algorithmes et cherche à relever des considérations éthiques qui semblent échapper à ce nouveau dispositif, le tout dans le but d’en arriver à formuler une perspective critique sur cet enjeu.
Abstract
By taking up the writings of Michel Foucault (1975) and Gilles Deleuze (1990) on the observed passage from a disciplinary society to a control society, we will demonstrate the need to think the singularity of the devices that discipline and punish in a time where the development of technology makes possible the massive accumulation of data and their processing by algorithms. By developing the proposition of an entry into the era of the algorithmic society, and by referring to Antoinette Rouvroy's work (2013), we will demonstrate how we are witnessing the implementation of a specific device generating new layouts and new forms of individuality based on profiles. In short, this article proposes, through the proposition of the term « algorithmic society », a better understanding of the current societal phenomenon engendered by algorithms and seeks to identify ethical considerations that seem to escape this new device, all with the aim of to arrive at a critical perspective on this issue.
Table of content
Full text
1C’est en reprenant les écrits de Michel Foucault (1975) et de Gilles Deleuze (1990) sur le passage observé d’une société disciplinaire à une société de contrôle que nous démontrerons la nécessité de penser la singularité des dispositifs qui surveillent et punissent à une époque où le développement de la technologie rend possible l’accumulation massive de données et leur traitement par les algorithmes. La société de contrôle, où l’on voyait s’estomper les frontières de la société disciplinaires, semble entrer dans une période de mutation ou d’adaptation où la question de la limite est appelée à se redéfinir. Cette nouvelle re-territorialisation pourrait s’apparenter à ce que Hardt et Negri théorisaient déjà dans Empire lorsqu’ils abordaient la question de « l’architecture de forteresse » qui fait écho aux « gated communities » – ces communautés dites protégées, sécurisées ou à accès restreint – comme un phénomène résultant des sociétés de contrôles (2001/2004).
2En développant la proposition d’une entrée dans l’ère de la société algorithmique, et en renvoyant là-dessus aux travaux d'Antoinette Rouvroy (2013), nous démontrerons de quelle manière nous assistons à la mise en place d’un dispositif spécifique engendrant de nouveaux agencements et de nouvelles formes d’individualités basées sur les profils. Ce phénomène n’est évidemment pas nouveau. L’idée qu’a développée Herbert Marcuse dans L’homme unidimensionnel (1964/1968) – où l’individu se voit intégré dans un système déjà défini comme totalité par l’effet des masses médias dans l’objectif de réprimer toute forme possible de rébellion – nous vient à l’esprit dès que l’on cherche à poser cette question. Cependant, la singularité de l’expérience qui s’offre, voire s’impose, à nous est que l’individualité générée à partir du Big data transforme l’agrégat d’individualités que l’on retrouvait dans la société de masse en petits ilots de communautés isolées les unes des autres s’agençant et se ré-agençant selon l’algorithme utilisé. Si l’effet principal de cette société algorithmique demeure le même que dans la société de contrôle, soit l’oblitération maximale de la pensée critique, cette société conduit aussi à la mise en place du phénomène de l’isolisme et du renforcement des croyances provoqué par le phénomène d’amplification. Cet appareil de contrôle semble rendu possible par la mobilisation du désir de se délaisser volontairement d’une part d’autonomie. La logique instituée de manière concomitante à la société algorithmique met en place une « gouvernementalité algorithmique » fonctionnant sur un principe qui oblitère toute forme d’extériorité et qui considère l’indétermination comme néfaste.
3En revenant à Claude Lefort – théoricien critique du totalitarisme – nous soutiendrons que, de par l’architecture qu’elle déploie, la société algorithmique refuse le jeu du politique comme celui de l’éthique (Morin, 2004). En bref, cet article propose, par la proposition du terme de « société algorithmique », de mieux saisir le phénomène sociétal actuel engendré par les algorithmes et cherche à relever des considérations éthiques qui semblent échapper à ce nouveau dispositif, le tout dans le but d’en arriver à formuler une perspective critique sur cet enjeu.
De la société de souveraineté à la société disciplinaire à la société de contrôle
4Si nous affirmons aujourd’hui que nous vivons dans une société algorithmique, c’est en interrogeant, après Foucault et Deleuze, l’articulation des modalités qui surveillent et punissent à notre époque et en les comparant à celles qui précèdent : société de souveraineté, société disciplinaire et société de contrôle. Notre réflexion s’inscrit donc, trop peu modestement peut-être, dans la lignée de celles qui voyaient se succéder différents types de société et ce, de manière non téléologique : il s’agissait de distinguer les agencements et d’en repérer les nuances et métamorphoses plutôt que de voir se dessiner une quelconque évolution. Ce rappel typologique, voire quelque peu didactique, aura l’avantage d’indiquer au lecteur par quel processus nous avons cheminé pour en arriver à cet énoncé.
5La société de souveraineté chez Foucault est celle du Grand renfermement que connaît l’Europe du XVIIe siècle. La maison des fous de Goya en est une représentation exemplaire. Foucault décrit là l'établissement d'institutions qui enfermaient ceux qui étaient jugés « déraisonnables ». Cela comprenait non seulement les fous, mais aussi les prêtres défroqués, les suicides échoués, les hérétiques, les prostituées, les débauchés ; en bref tout ce qui était considéré comme socialement improductif ou perturbateur. Tous se voyaient enfermés dans un même lieu afin que s’exerce, au dehors, le pouvoir du Souverain dans une société bien ordonnée. À cette société correspond la lèpre. On doit enfermer le lépreux pour éviter qu’il contamine l’autre. Ainsi, dans cette société, le lépreux, comme tout ce qui dévie et qui lui est rapidement associé, est ce qui fait trouble et est confiné au même sort, celui de l’enfermement.
6Au Grand renfermement succède le Panopticon. À la lèpre succède la peste. La manière de répertorier, de classer, de compter, d’ordonner, qui correspond au moment du ravage de la peste, se transformera en un vaste projet politique qui verra son incarnation dans le plan architectural de l’utilitariste Jérémie Bentham (Foucault, 1975, p. 233). Le lieu où étaient jadis enfermés les déviants se voit compartimenté. Non seulement on voit naitre l’existence des cellules, mais celles-ci sont insérées dans le dispositif que l’on sait, qui consiste en leurs superpositions le long d’un tracé circulaire. Les murs latéraux des cellules sont opaques alors que ceux donnant à l’intérieur comme à l’extérieur de la cour sont pourvus de larges ouvertures laissant passer la lumière. Au centre de ce cercle se situe une tour à l’intérieur de laquelle un gardien peut observer les prisonniers. La singularité de ce dispositif réside en ce que le gardien ne peut pas être vu par les prisonniers. L’observation à laquelle le sujet est soumis est invérifiable, on assiste à une « désindividualisation du pouvoir » (Foucault, 1975, p. 235) : « surveillance permanente, exhaustive, omniprésente, capable de tout rendre visible, mais à condition de se rendre elle-même invisible. Elle doit être comme un regard sans visage qui transforme le corps social en un champ de perception : des milliers d’yeux postés partout, des attentions mobiles et toujours en éveil, un long réseau hiérarchisé » (Foucault, 1975, p. 249). Le rêve politique de la peste s’instituera alors dans la mise en place de tout un système de législation basé sur la hantise des contagions. Celles-ci pouvant être d’ordre médical comme relevant de l’ordre des idées. Dans la société disciplinaire, le prisonnier est inclus dans le dispositif total de la cité bien gouvernée. En effet, dans la société disciplinaire, c’est tout un chacun qui se voit, à des étapes différentes de sa vie, pris dans une cellule, que celle-ci soit l’école, l’usine, l’hôpital ou la prison : « Le panoptisme est capable de réformer la morale, préserver la santé, revigorer l’industrie, diffuser l’instruction, alléger les charges publiques, établir l’économie comme sur le roc, dénouer, au lieu de trancher, le nœud gordien des lois sur les pauvres, tout cela, par une simple idée architecturale » (Foucault, 1975, p. 241). Classer, diviser, discipliner. Un pavillon par catégorie. En fait, selon les mots de Deleuze : « la société disciplinaire [devient] l’organisation des sociétés d’enfermement » (Deleuze, 1990, p. 240). Cette architecture s’étend à tous les domaines, Foucault la constate : « Que la prison cellulaire, avec ses chronologies scandées et son travail obligatoire, ses instances de surveillance et de notation, avec ses maîtres en normalité, qui relaient et multiplient les fonctions du juge, soit devenu l’instrument de la pénalité moderne, quoi d’étonnant ? Quoi d’étonnant si la prison ressemble aux usines, aux écoles, aux casernes, aux hôpitaux, qui tous ressemblent aux prisons ? » (Foucault, 1975, p. 264) Chaque dispositif s’institue comme une « maison de certitude » (Foucault, 1975, p. 236) et contribue, à leur manière, à l’instauration d’un gouvernement stable et bien ordonné.
7Cet agencement singulier, où chaque élément a sa place, sera appelé à se disposer de manière différente. C’est ainsi qu’apparaitra, non pas en rupture, mais plutôt selon un déploiement différent, la société de contrôle. Si Deleuze et Guattari sont les principaux théoriciens de cette société, Foucault en voyait déjà poindre les premiers signes lorsqu’il observait que les procédures disciplinaires tendaient à se « diffuser, à partir non pas d’institutions fermées, mais de foyers de contrôle disséminé dans la société » (Foucault, 1975, p. 247, nous soulignons).
8Si la société que présente Foucault est celle du cloisonnement disciplinaire (école, usine, hôpital, armée, prison) la société de contrôle est celle où volent en éclat les cloisons grâce notamment aux technologies de l’information et des communications. Si ces technologies sont porteuses de promesses (éducation, participation citoyenne, etc.), elles permettent aussi un étalement de la surveillance et une mobilisation constante du sujet qui se manifeste notamment par l’apparition de l’idée de la formation permanente à l’école (Deleuze, 1990, p. 243). C’est l’ère de l’entreprise et de la rivalité continue entre les employés (concours, primes) présentée comme facteur d’émulation (Deleuze, 1990, p. 242). Les foyers de contrôle sont disséminés. Le leitmotiv est celui de l’interdisciplinarité, on parle de compétences transversales, de projets d’intégration, etc. Nul besoin de centre. C’est tout un chacun qui se charge de contrôler son prochain, comme de s’auto-réguler. L’espace temporel est lui aussi appelé à être modifié : les sujets sont joignables, localisables, traçables en tout temps. Le plus pernicieux ici étant que tout cela se pare des habits de la liberté. Ce décloisonnent est accompagné d’innovations technologiques comme celles de machines informatiques et d’ordinateurs (Deleuze, 1990, p. 244). Le tout sera déployé à grand frais par la mise en connexions de flux qu’internet permettra et qui rendra de plus en plus vain le souhait de Deleuze de créer des vacuoles de non-communications, des interrupteurs pour échapper au contrôle (Deleuze, 1990, p. 238). La société de contrôle est totale, elle vient mettre en échec toute potentialité d’extériorité. Elle se présente comme une société plus licite, où le souverain semble destitué. Mais si destitution il y a, elle est suivie d’une prolifération de micro pouvoirs de soi et des autres. L’individu se croit libre et tolérant, mais il s’agit d’une intolérance masquée de tolérance où chacun tente de se conformer à la norme latente, sans qu’un pouvoir transcendant ne s’exerce. Cette société met en place une nouvelle forme de contrôle encore plus pernicieuse car elle se nie en s’exerçant. S’il y a quelque chose que la société algorithmique révèlera, c’est l’illusion de la liberté comme la fiction de l’absence de pouvoir transcendantal qui serait contenue dans la société de contrôle.
De la société de contrôle à la société algorithmique : l’apparition du Big Data
9Dans le passage de la société de contrôle à la société algorithmique, c’est l’arrivée du Big data qui sera porteuse de nouvelles configurations. La technologie permet désormais d’accumuler, sans limite, des données dites massives. Ces données, pétrole du XXIè siècle, sont susceptibles de générer d’importants profits et s’échangent sur le marché à très haute valeur. Ce phénomène demeure assez récent et n’est pas encore complètement intégré dans les réflexions sur les modalités de surveillance qui s’imposent à nous. À titre d’exemple, dans le rapport Vivre à nu : la surveillance au Canada : projet sur la nouvelle transparence, déposé en 2014, les auteurs ne mentionnent jamais la question du Big data. Nous nous questionnons : dans quelle mesure est-ce que l’arrivée des données massives vient transformer les modalités de surveillance et de contrôle qui nous traversent ?
10Dans ce rapport, les auteurs mobilisent, de manière implicite, le lexique de la société de contrôle pour expliciter ce qui se met en marche grâce aux possibilités qu’offrent les nouvelles technologies : on assiste, affirment-ils, à un « décloisonnement des secteurs » (Bennet, Haggery, Lyon & Steeves, 2014, p. 17) où la surveillance devient une technique pour exercer un « pouvoir ou un contrôle social » (Bennet, Haggery, Lyon & Steeves, 2014, p. 221). Le rapport corrobore l’idée d’un avilissement du politique par la mise en place d’une logique de surveillance généralisée parente de la société de contrôle telle que l’avaient décrite Deleuze et Guattari. Si l’étude vise ici le Canada, on peut aisément en étendre les conclusions à d’autres pays. Les effets de cette surveillance sont, poursuivent-ils, le refroidissement des libertés individuelles, l’autorégulation de la liberté d’expression ainsi que le contrôle intégré du comportement. Tout se passe comme si se performait une logique immanente et immédiate du pouvoir, où la norme se trouvait directement intégrée et assimilée, grâce aux puissants dispositifs d’observation constante auxquels sont soumis les individus. Le plus inquiétant pour les auteurs étant que ces derniers non seulement acceptent cette surveillance au nom d’une plus grande sécurité mais l’accoutumance au contrôle endommagerait la capacité même de penser le dispositif de manière critique. Vivre à nu serait alors le prix à payer pour se protéger de l’insécurité qui, à tort ou à raison, nous guette. Consciemment ou non, les auteurs annoncent par le titre du rapport, ce qui nous menace. Cette forme de vie, nue, où la présomption d’innocence est minée et où s’effectue un « tri social » constant (Bennet, Haggery, Lyon & Steeves, 2014, pp. 5-7). Or, s’il y a une vie qui est réduite à sa pure fonction biologique et qui est soustraite du politique c’est celle qui est, justement, nue (Agamben, 1996).
11La question du tri social, qui se verra peaufinée par l’arrivée des données massives, est l’un des enjeux qui nous permettra de comprendre ce qui se met en place dans cette nouvelle configuration qui semble advenir. Si les auteurs affirment qu’il y a, dans la surveillance, un « tri social acceptable » – il faut bien concentrer nos efforts à certains endroits afin d’éviter de se disperser – ils affirment aussi que ces mécanismes de surveillance ne sont pas exempts de failles et que les personnes qui sont déjà stigmatisées seront les plus vulnérables. Le tri social qui s’effectue par le biais des algorithmes nous permet de penser ce qui, dans la société de contrôle où il n’y a plus de frontières entre les disciplines, semble engendrer d’autres modalités de limites, d’autres dispositions, prêtes à faire apparaître une nouvelle architecture du politique. Comme une esquisse, les auteurs du rapport Vivre à nu tracent les pourtours de ce qui nous ferait entrer dans un nouvel agencement. Ils affirment que l’image que nous projetons sur internet aura un impact direct sur notre avenir puisque « le traitement que nous recevons varie en fonction de notre profil » (Bennet, Haggery, Lyon & Steeves, 2014, p. 5); ce que l’on appelle communément la personnalisation de l’expérience de l’utilisateur. Le passé devient donc complètement garant de l’avenir, ce qui est susceptible de produire l’effet pernicieux de restreindre l’ouverture des possibles pour ceux qui sont déjà confinés aux marges, tout comme d’offrir des opportunités à ceux qui sont déjà privilégiés. C’est à partir de cette modulation adaptative de l’expérience Web en fonction des profils de chacun, conçus à partir des traces laissées sur internet et massivement accumulées, que nous aimerions aborder la mutation en cours à laquelle nous assistons, soit celle du passage de la société de contrôle à la société algorithmique. La « dataveillance » (Bennet, Haggery, Lyon & Steeves, 2014, p. 22) dont parlaient les auteurs du rapport serait appelée à devenir une bigdataveillance qui, couplée aux algorithmes, offrirait des potentialités jusque-là impensées.
12Cette nouvelle société repose notamment sur la croyance en la réalisation du fantasme de la reproduction fidèle et totale du réel en terme de données qu’il serait possible de traiter de manière objective, grâce aux algorithmes. Il y a quelque chose dans cette fiction qui semble délivrer le chercheur, le politicien, le juriste, le publiciste, etc. du risque d’introduire un biais humain dans la recherche. Le Big data nous délivrerait de la part d’incertitude ou d’erreur pouvant être introduite par l’homme dans l’émission d’un jugement, d’un conseil ou d’une recommandation. Ainsi, Viktor Mayer-Schönberger affirmera que « le Big Data nous permet [...] de ne plus plier la réalité à des catégories a priori. Nous pouvons désormais laisser les données nous fournir elles-mêmes les catégories qu’elles contiennent, plutôt que de croire qu’une personne peut établir des classifications reflétant fidèlement la réalité » (Mayer-Schönberger, 2014, p. 3). Les données massives seraient susceptibles de nous fournir, de manière autonome, des catégories, ce qui permettrait un exercice totalement rationnel de la raison dans la prise de décision et évacuerait toute dimension liée à l’irrationalité, aux préjugés, aux croyances, aux intuitions, perçues comme des imperfections (Mayer-Schönberger, 2014, p. 12).
13Dans son article « Slaves to Big Data. Or Are We ? » Mireille Hildebrandt démontre bien de quelle manière l’identité entre le réel et sa reproduction sous la forme de données massives selon la logique A = A’ telle que la décrit Mayer-Schönberger est non seulement illusoire mais crée une situation susceptible d’engendrer d’importants biais d’analyse. Elle affirme en effet qu’il n’existe rien de tel que des données brutes (raw data) (Hildebrandt, 2013, p. 8) : si l’on s’y attarde, on réalise que les données ne sont pas le reflet de la réalité en elle-même mais bien la conséquence des traces laissées par les individus. Or, non seulement tous les individus n’ont pas le même accès à internet, non seulement tout ce que fait un individu ne laisse pas nécessairement de traces en terme de données, mais rien n’indique que certaines traces ne visent pas justement à brouiller elle-même ces données : un sujet naviguant sur un ordinateur peut, par exemple, se censurer en amont ou brouiller les pistes en envoyant des données contradictoires grâce à l’usage de certains logiciels (TrackMeNot). Qui plus est, la multiplication des faux profils, des bots ou des fermes à clics qui génèrent des flux sur des sujets donnés en amplifiant l’écho de certaines « nouvelles » vraies ou fausses, viennent distordre, là aussi, l’identité A A’ entre le réel et les données massives. S’ajoute à cela le fait que l’analyse de ces données requiert une sélection, une qualification, un ordonnancement et un motif pour procéder à l’analyse. Seuls ces éléments permettront de traduire les données utilisées pour les rendre signifiantes : « To translate the flux of life into discrete, machine-readable bits and bytes we must qualify what counts as the same type of data, what realities fit what objects and attributes in the data models used to map Big Data. This entails interpretation » (Hildebrandt, 2013, p. 8). La croyance selon laquelle on puisse se brancher directement sur l’espace public est donc solidement mise à mal. Si l’idéologie prétend parler au nom du réel, il s’agit de son réel qu’elle module grâce à des algorithmes opaques dont seuls les géants tels que Google, Facebook et Amazon possèdent les clefs. Ces derniers ont tout intérêt à soutenir la fiction de cette identité A A’ d’un monde clos et entièrement codé en usant du Big Data pour réduire, en apparence, toute forme d’incertitude.
14Nous venons de le mentionner, ces codes permettent l’analyse de données. L’interprétation qui en est faite n’est pas objective, loin s’en faut, et celle-ci est susceptible de produire nombre d’erreurs et d’injustices. Tout ce « progrès » s’institue à rebours même de l’idée du politique et de la démocratie, d’autant que les créateurs d’algorithmes ne sont généralement soumis à aucune reddition publique de compte non plus qu’à une imputabilité. Là où l’intolérance était masquée de tolérance dans la société de contrôle, dans la société algorithmique, c’est l’opacité qui est masquée en transparence. C’est là toute la thèse que déploiera la mathématicienne Cathy O’Neil dans son essai Weapons of Math Destruction How Big Data Increases Inequality and Threatens Democracy. Le management basé sur le Big Data est loin d’être transparent (O’Neil, 2016, p. 145), il renforce plutôt la dynamique qui consiste à privatiser le pouvoir et à entretenir une culture du secret. Il est le plus souvent impossible de savoir quelles données sont sélectionnées selon quel code lorsqu’une question est soumise à l’ordinateur : Puis-je obtenir ce prêt pour l’achat de ma maison ? Serais-je sélectionné pour faire un entretien pour cet emploi ? Aurais-je droit à une libération conditionnelle ?
15S’ajoute à cela le fait qu’en se basant sur des données massives pour établir des pronostics, l’on risque de mettre en place, nous l’avons déjà mentionné, une marginalisation des marginalisés. Cela fait dire à Mireille Hildebrandt : Sometimes small data are best data (Hildebrandt, 2013, p. 8). Les recherches des dernières années en sciences sociales n’ont-elles pas justement démontré tout l’intérêt pour les micros récits lorsqu’il s’agit de comprendre la singularité des parcours des marginalisés ? En établissant des pronostics basés sur les données massives à l’aide d’algorithmes, où le passé devient garant du futur (O’Neil, 2016, p. 155) ne vient-on pas mettre en échec les principes de justice, d’équité et de pardon ? Votre parcours antérieur déterminera les opportunités qui vous seront présentées dans l’avenir : votre cote de crédit, vos antécédents médicaux, vos habitudes de consommation d’alcool et de tabac, vos restrictions alimentaires (végétarisme, viande halal), même votre code postal pourra être mobilisé pour identifier votre profil, tout cela étant susceptible de constituer, indirectement peut-être, un biais raciste, sexiste ou classiste. Ajoutons à cela que les données massives ne sont pas exemptes d’erreurs d’association. Si votre nom se voit malencontreusement associé à un crime que vous n’avez pas commis, il y a moins de chance que la présomption d’innocence vous soit octroyée si vous provenez d’un quartier étiqueté comme problématique, ce qui ne sera pas nécessairement le cas si vous êtes un riche avocat qui vous présentez en entretien (ONeil, 2016, p. 150). Cette société algorithmique produit des dommages collatéraux et si vous avez le malheur de vous trouver dans un « nasty feedback loop » (O’Neil, 2016, p. 144), vous serez coupable jusqu’à preuve du contraire, ce qui va à l’encontre du principe même de l’Habeas corpus. Et comme les algorithmes sont souvent opaques, il sera infiniment difficile de prouver que, singulièrement, vous êtes victimes d’une injustice. Par ailleurs, il paraît présomptueux de croire que l’issue à cette situation trouverait ses assises dans la simple volonté d’exiger, sous la forme d’une gouvernance mondiale ou autre, une transparence des algorithmes décisionnels puis que, nous l’indique Rouvroy, ces algorithmes fonctionnent parce qu’ils sont opaques. Prenons l’exemple de la sécurité nationale : une diffusion des algorithmes permettrait effectivement aux potentiels terroristes de contourner les dispositifs et de brouiller les pistes afin de ne pas être détectés.
16Rouvroy avance aussi que cette gestion par algorithmes produit une « force normative » (Rouvroy, 2015, p. 1) qui met à mal l’idée d’un sujet devant/pouvant choisir entre deux ou plusieurs alternatives. La puissance des algorithmes, qui à coup d’« alertes », provoque des « réflexes », ne résiderait pas tant dans la capacité à « prédire » mais plutôt dans la capacité à « intervenir » dans le réel pour l’orienter (Rouvroy, 2015,1). Quant à notre capacité à contrer cette orientation, Rouvroy remarque que lorsqu’une recommandation est produite par un logiciel, elle est investie d’une charge rationnelle qui dépasse largement l’individu. Il devient alors difficile de s’opposer au jugement rendu : « Pour un assistant en justice qui déciderait de libérer un détenu contre l’avis d’un algorithme, on voit tout de suite le risque énorme que celui-ci prendrait » (Rouvroy, 2015, p. 1). Mais que devient la marge d’erreur de l’employé (ou du citoyen dans une situation qui lui serait parallèle) dans ce cas ? Décider, n’est-ce pas justement être en mesure de ne pas suivre une recommandation, n’est-ce pas trancher dans l’incertitude ? C’est précisément cette incertitude qui, relève Rouvroy, donne sa valeur à la décision (Rouvroy, 2015, p. 2).
17L’univers qui s’ouvre à nous est tout sauf transparent ; ou si transparence il y a, celle-ci est bien unidirectionnelle. Le « pouvoir synoptique » qui s’institue ici (Maxime Ouellet, 2016, p. 182) engendre quelque chose comme une nouvelle architecture du politique, plus opaque, où l’on ne voit que ce que les algorithmes nous permettent de voir. Il ne faut pas pour autant entendre ici que nous sommes en faveur d’une transparence totale, qui ferait, craindre le pire du meilleur des mondes, mais les nouvelles frontières qui se dessinent ne sont pas, non plus, annonciatrices d’heureux présages.
Quelle architecture pour la société algorithmique ?
18Tout se passe comme si les algorithmes engendraient une nouvelle modalité de cloisonnement où les murs s’épaississaient à force d’amplification et où la mise en place de ce nouveau dispositif technologique induisait, dans l’espace publique comme dans l’espace privée, quelque chose comme une tyrannie de l’écho. Se déploierait alors une nouvelle architecture, distincte de celle à laquelle nous avait astreint la société de contrôle.
19Si à la société de contrôle on associe généralement un espace lisse, sans frontière, un espace de circulation de flux permanents, la société algorithmique pour sa part semble mettre en place d’un nouveau dispositif d’isolement. C’est chez Hardt et Negri que nous avons retrouvé la première intuition de cette nouvelle architecture lorsque ces derniers développent, sous le nom d’Empire, l’idée de la société de contrôle. L’Empire est associé au moment de la dissolution de la société civile tout comme de la sphère privée. Dans ce nouveau monde sans frontières se côtoient des populations qui vivent dans des situations infiniment inégales (Hardt & Negri, 2001/2004, p. 403). Se déploie alors ce qu’ils nomment une « architecture de forteresses » qui apparaît sous une forme parente de ce que sont les gated communities, ces communautés protégées, sous surveillance, où les riches érigent des murs afin de se séparer, à l’intérieur même d’un état, de la population environnante. Cette architecture engendre « un déclin de l’espace public qui avait permis une interaction sociale ouverte et non programmée d’avance » (Hardt & Negri, 2001/2004, p. 408-409). Se met alors en place de « nouveaux mécanismes de séparation et de segmentation des différentes couches de la population » (Hardt & Negri, 2001/2004, p. 411). Nous voyons là, dans la reconduction de nouvelles frontières qui n’apparaissaient que sous la forme d’exception dans l’Empire, un dispositif qui se déploiera de manière totale avec l’arrivée des données massives et des algorithmes. Elle est là, selon nous, l’architecture contemporaine du politique que nous nommons – en nous inspirant des travaux de Rouvroy sur la gouvernementalité algorithmique mais en proposant un concept plus englobant et qui soit à même de marquer la continuité d’avec les propositions formulées par Foucault et Deleuze – la société algorithmique.
20Les communautés protégées ou surveillées, telles que décrites par Hardt et Negri, semblent appelées à se généraliser, c’est du moins notre intuition, grâce aux processus de profilage et de feed back que nous avons décrit plus tôt. Qui plus est, la capacité à sortir d’un cercle restreint pour accéder à l’altérité, à des opinions distinctes des nôtres semble réduite. Cela modifie l’interaction entre les citoyens à l’intérieur de l’espace public comme à l’intérieur de l’espace privé. Les algorithmes, notamment sur les réseaux sociaux, peuvent engendrer un faux sentiment d’association créé « d’en haut », de manière complètement opaque. On retrouvera vite parmi nos « amis » des gens pensant comme nous. Se produira alors un processus d’amplification de nos idées qui, au lieu d’être confrontées à des positions discordantes, ne seront que confortées. Bien entendu, il serait faux de dire que dans les formes de sociétés qui précédaient, les individus de classe, de race et de sexe différents se côtoyaient aisément et que ces limites étaient poreuses. Cependant, les mécanismes qui opéraient la division pouvaient, du moins avant que n’advienne la société de contrôle, être nommés, identifiés et ainsi, contestés. La gouvernementalité algorithmique qui se met en place est alors susceptible de devenir, ce sont les mots de Rouvroy, une arme « pour ne pas changer le monde » (Rouvroy, 2016). Les algorithmes ne sont pas « générateurs d’espace public, mais au contraire sous couvert de ‘personnalisation’ des offres d’information, de service et de produits, c’est plutôt à une colonisation de l’espace public par une sphère privée hypertrophiée que nous aurions affaire à l’ère de la gouvernementalité algorithmique » (Rouvroy, 2013, p. 167). Rouvroy poursuit : « l’objectif [du marketing individualisé] n’est pas tant d’adapter l’offre aux désirs spontanés (pour peu qu’une telle chose existe) des individus, mais plutôt d’adapter les désirs des individus à l’offre » (Rouvroy, 2013, p. 176). Ajoutons à cela que dans la société algorithmique, on célébre comme un progrès la défaite de l’autonomie; c’est-à-dire qu’on perçoit comme une plus-value le fait de pouvoir se démettre d’avoir à procéder à certains choix, certaines recherches, certaines décisions et que l’on préfère faire appel à des recommandations programmées. Non pas que cela ne soit pas utile dans nombre de situations, mais la généralisation de ce processus n’est pas sans poser, à son tour, certains défis.
21Cette architecture de forteresse généralisée signe la fin de la perspective de mobilité qu’avait fait miroiter la société de contrôle. Un nouvel essentialisme semble émerger, un essentialisme basé sur les profils associés à un individu, tel des avatars le devançant et personnalisant ses choix en fonction de ce qui précède, réduisant ainsi, comme peau de chagrin, le champ des possibles. Si cette personnalisation possède les traits d’un nouvel essentialisme c’est qu’elle n’est que factice. En vrai, elle reconduit des idéaux types et, au lieu de personnifier l’expérience, procède d’un alignement des choix et possibilités en fonction de ces idéaux types. Les algorithmes, couplés au Big data et construits à partir d’un langage binaire, fixent l’individu à l’intérieur de nouvelles frontières, sous le mythe de la personnalisation de l’expérience. On assiste à la mise en place d’une nouvelle technique de fabrication de l’homme sériel ou de la reproduction du même à l’infini. Les algorithmes associent certains profils à d’autres pour créer des configurations (des patterns) qui permettront par la suite de proposer à l’utilisateur un produit qu’il croira désirer par lui-même. Il s’agit, soutenons-nous, d’une forme d’actualisation de l’homme unidimensionnel tel que le déployait déjà Herbert Marcuse en 1964. Il écrivait : « et si l’individu renouvelle spontanément des besoins imposés, cela ne veut pas dire qu’il soit autonome, cela prouve seulement que les forces de contrôle sont efficaces » (Marcuse, 1964/1968, p. 36).
22Les algorithmes produisent ainsi de fausses singularités inscrites à l’intérieur d’îlots d’autres singularités apparentes. Pour prendre un exemple, il ne suffit que de penser à dérouler son fil d’actualité Facebook en période électorale pour réaliser qu’une forte majorité des nouvelles qui sont affichées aura tendance à confirmer la position que nous avons déjà. La « pensée unidimensionnelle » devient une pensée créatrice de communautés fermées et auto poïétiques où le fait du pluralisme n’est que l’illusion du côtoiement des différences sur un plan où elles sont sourdes les unes aux autres. Les algorithmes mettent en place une chambre d’écho où la polyphonie tend de plus en plus à s’estomper. La société algorithmique libère le sujet du fardeau de choisir en lui garantissant un état stable et sécuritaire, programmé par un tiers, dans lequel lui seront offerts des produits calibrés selon « ses » désirs. Contre ce nouvel isolisme, il nous semble qu’une critique de l’essentialisme et qu’un appel à une réelle mobilité, pour tous et toutes, se présente davantage comme une voie de sortie de cet appareil que comme une logique concomitante qui ne ferait que le renforcer.
23Il serait malhonnête de ne voir que la face négative derrière ces nouvelles potentialités qu’offrent les technologies du Big data et leur traitement par les algorithmes. Il est de bon ton de parler des nouvelles technologies plutôt comme d’un pharmakon (Bernard Stiegler, 2010). Les nouvelles technologies pouvant agir à la fois comme un poison et comme un remède. Ces technologies sont porteuses de promesses au niveau de la recherche en environnement comme au niveau de la recherche en santé par exemple. En ce qui concerne les promesses d’un nouvel espace démocratique que supposerait un usage des données massives, nous demeurons par contre plus sceptiques. Les questions relevant de la démocratie en ligne, où des plateformes reproduiraient de manière virtuelle un espace public à la Jurgen Habermas nous semblent infiniment problématiques. Dans la lignée de l’activiste et documentariste Astra Taylor, nous soutenons que les potentialités qu’offre internet (les promesses d’une libre circulation de l’information et d’un accès au savoir plus démocratique) comportent d’importantes limites. En effet, alors que plusieurs accordent au world wide web le statut de médium par excellence du libre partage d’information et d’idées, Taylor met en garde contre les inégalités sur Internet, ses visées publicitaires et purement commerciales, tout comme ses lacunes quant à la qualité de l’information. Elle soutient que le pouvoir du peuple est loin d’être accru et qu’il est au contraire devenu vulnérable, voire dépendant, devant les géants d’Internet tels que Google et Facebook. L’idéal de démocratisation se serait transformé en création de monopoles qui, au lieu de les réduire, augmente les inégalités.
24Certains soutiendront que ce que la technique nous fait, en nous retirant l’obligation de choisir sur des sujets triviaux, est susceptible de nous libérer l’esprit pour « des tâches intellectuelles plus intéressantes, plus altruistes » (Rouvoy, 2013, p. 179, voir aussi Michel Serres, 2012). Encore faudrait-il démontrer que l’architecture qui se met en place ne vient pas mettre à mal cette capacité, ce qui est loin d’aller de soi. Si certains ont vu dans les médias sociaux un quelconque espace de fomentation de résistance, et l’auteure de ces ligne en est, il faut se rappeler constamment que toute trace laissée sur le medium, tout statu, toute image, toute nouvelle lue, référée, aimée est colligée, tracée, collectée et détenue par ce réseau. Qui plus est, si nul n’a restreint nos droits à cet effet, c’est que ce qu’on y met ne perturbe pas tant l’ordre des choses, voire même est utile à sa perpétuation.
Perspectives éthiques en contexte : éléments pour une critique de la certitude
25À la lumière de ce que nous venons de présenter, il semble que si des individualités sont générées grâce aux algorithmes, leur singularité n’est qu’apparente et orientée d’une manière qui nous échappe. Le fait du pluralisme que l’on tend à associer à ces temps semble illusion et, au final, ne fait que rétrécir l’univers de possibles qui s’offre aux individus en formatant leurs désirs de manière à ce que cela réduisent, au maximum, l’instabilité. Nous relevons d’ailleurs que de la société de contrôle à la société algorithmique, c’est bel et bien la question de l’aversion du risque et le désir d’efficacité qui semble agir comme le moteur des nouveaux usages des technologies (Mayer-Schönberger, 2). Dans cette lignée, Ouellet constate que la valeur du savoir produit par ces technologies se mesure en « capacité à réduire les incertitudes » (Ouellet, 2016, p. 163). La société algorithmique ne ferait en fait que renforcer cette idée du pouvoir disciplinaire en créant, sous de nouvelles modalités, les « maisons de certitude » dont Foucault parlait déjà (Foucault, 1975, p. 236).
26Se référant implicitement à Foucault, Rouvroy rappelle que « le politique c’est ce qui glisse entre le mot et les choses ». Elle ajoute : « Or, l’algorithme impose une réalité immanente, et qui n’est même pas une représentation du monde réel. Il impose un point de vue global, total, voire totalitaire, qui va nous mener droit dans le mur » (Rouvroy, 2015, 3). Dans cette architecture en construction, l’incertitude, tout comme le conflit, deviennent des tares dans l’espace publique; tares qu’il faut à tout prix éviter, ou réduire à leurs plus petites expressions. Or si l’incertitude est mauvaise, c’est le plus souvent pour le marché. Les technologies sont alors mises à son service, mais pas seulement. Elles sont aussi mises au service de la sécurité nationale car l’incertitude signifie aussi, de ce côté, une potentielle de menace à la paix. Tout se passe alors comme si économie de marché et économie de guerre allaient main dans la main proposant une forme actualisée du complexe militaro-industriel. Par ailleurs, pour que la machine fonctionne, une menace est nécessaire. C’est pourquoi l’on observe un désistement de l’état hobbesien sécuritaire vers un état qui génère de l’insécurité (Aradau & van Munster, 2011, p. 147). Cette insécurité n’est en aucun cas parente de l’incertitude éthique que nous appelons de nos vœux puisqu’elle vise à précariser le sujet en vue de le soumettre plus aisément. L’État – aussi polémique cette définition puisse-t-elle être – n’est donc plus celui qui nous protège et nous fait nous sentir en sécurité. Plutôt, l’État est celui qui nous rappel constamment à notre fragilité, qui, en prolongeant sans cesse l’État d’exception, rend permanente l’idée d’un danger imminent. On ne parle plus de défense, mais de prévention, on ne parlera plus de réaction mais de proaction. La défense reposait sur la protection, la sécurité et la confiance alors que la prévention repose sur la peur, l’anxiété et le malaise : « While defence implies protection, safety and trust, prevention operates on the basis of permanent feelings of fear, anxiety and unease. Security discourses, in other words, are increasingly dominated by the logic of risk management, a logic which calls for the management and government of potentialities of ‘risky’ populations by means of (statistical) calculations and proactive management rather than through the reactive management of real events and threats » (Aradau & van Munster, 2011, p. 147). Les organes de contrôle, qu’ils soient étatiques ou non, semblent agir comme des pompiers pyromanes qui nous font désirer plus de sécurité, plus de contrôle et qui nous rendent de plus en plus inaptes à prendre des décisions sans consulter les oracles algorithmiques; et ces algorithmes possèdent de puissantes ramifications. Derrière ces usages se cache un désir de compréhension totale de l’humain et de prédiction de ses comportements dans toutes les dimensions de son existence. Il s’agit « d’éviter l’imprévisible » (Rouvroy, 2013, p. 173) en cherchant à « éradiquer ou minimiser les incertitudes » (Rouvroy, 2013, p. 174). Or, cette volonté concorde mal avec « la condition même d’un ethos scientifique et d’un ethos politique [qui est] de conserver un doute, d’entretenir une méfiance par rapport à la suffisance des corrélations, de maintenir la distinction entre corrélation et cause, de se méfier des ’effets’ autoperformatifs des corrélations » (Rouvroy, 2013, p. 170). À la différence de la société de contrôle où la dissémination des foyers de contrôles semblait totale, où s’était opérée une intégration individuelle de l’autorégulation des comportements, où le désir de liberté, aussi illusoire fut-il, semblait agir comme moteur, la société algorithmique vient renforcir le désir de servitude comme le désir de se délester d’une part importante d’autonomie. La société algorithmique ne cherche plus à prétendre. L’individu désir désormais cette prévisibilité.
27À cette mutation de la société de contrôle en société algorithmique correspond tout un appareillage de surveillance qui vient mettre en échec l’éthique comme le politique. Tel que mentionné en introduction, nous soutenons, dans la lignée de Claude Lefort, que le politique est précisément ce qui repose sur la mise en scène et la mise en sens de l’incertitude comme de l’indétermination; lui qui affirme que le politique consiste en fait à « consentir à une exploration dont les chemins ne sont pas connus d’avance » (Lefort, 1986, p. 7). La société algorithmique, par le déploiement de son architecture, met à mal cette dimension fondamentale du vivre ensemble, du vivre avec l’autre, qui implique, encore et toujours, une dimension d’incertitude puisque je ne peux jamais savoir complètement ce que pense l’autre et la seule manière d’établir un point de convergence avec lui, aussi précaire soit-il, est le dialogue ; dialogue qui s’opère toujours de manière non-immédiate, ne serait-ce que parce que pour dialoguer, il faut utiliser un langage, première médiation entre deux êtres.
28La société algorithmique tend donc à nier le fait que l’espace public est aussi l’espace des « ratés », des « interruptions », des « crises », des « déviations » (Rouvroy, 2013, p. 182), l’espace public devient un espace segmenté où s’efface radicalement l’altérité, où se polissent toutes les aspérités, au nom d’un désir de sécurité, au nom d’une facilitation du choix et de la déresponsabilisation de l’individu. Le sujet dépose dans l’objet non seulement sa mémoire – au sens où les objets techniques sont des hypomnémata comme le rappelait Stiegler, revenant lui-même à Platon – mais il y abandonne aussi le processus décisionnel dans l’ensemble. En refusant de trancher dans l’incertitude, en s’en remettant à un organisme technique tiers, l’espace public devient un lieu où n’existe plus l’adversité, ni le doute.
29Or l’intercession entre l’éthique et le politique produit inévitablement des incertitudes. Edgard Morin nous rappelle que « [d]evant les contradictions éthico politique la perspective éthique est soit de condamner le politique, soit d’accepter le compromis, soit d’envisager une navigation difficile et aléatoire dans la dialogique des impératifs antagoniste » (Morin, 2004, p. 103) Pour Morin, il fait nul doute que la troisième option est la meilleure. Le défi étant de savoir de quelle manière il est possible, aujourd’hui, d’envisager une société où il serait envisageable de renouer avec une dimension qui consiste à « accepter et affronter l’inconnu de l’avenir du monde ». (Morin, 2004, p. 106). Hildebrandt, que nous avons cité plus haut, rappelle, lorsqu’elle s’interroge sur l’idéal A A’ que supposerait l’univers codé du Big Data, cette citation de Evgeny Morozov : « imperfection, ambiguity, opacity, disorder, and the opportunity to err, to sin, to do wrong thing : all of these are constitutive of human freedom, and any concentrated attempt to root them out will root out freedom as well » (Evgeny Morozov, 2013, p. 18)
30C’est à cette tradition éthique que nous souhaitons en appeler pour penser un monde commun qui accepte le conflit comme partie intégrale de sa constitution, le conflit étant la base même de la mise en place d’un processus critique qui veuille à ne pas reconduire une nouvelle forme de dogmatisme. Non pas au sens de Carl Schmitt ou tel que le déploiera à sa suite Chantal Mouffe, où le conflit divise en opposition binaire, chacun luttant pour leur hégémonie. Non pas non plus le conflit tel qu’il est mis en scène par un Donald Trump, ou tel qu’il se manifeste par le Brexit ou encore la montée de l’extrême-droite en Occident; plutôt un conflit pluriel qui accepte la polyphonie et l’indétermination d’un ensemble comme celle constitutive d’un même individu. Notre seul espoir résidant peut-être dans cette idée que souligne Rouvroy qu’ « il y aura toujours un reste d’incertitude qui échappera à toute tentative de traitement algorithmique » (Rouvroy, 2015, p. 2), et qui nous rappelle l’importance de ne jamais chercher à résoudre, une fois pour toute, l’énigme du politique.
Bibliographie
Agamben, G. (1997). Homo sacer. Le pouvoir souverain et la vie nue. Paris : Seuil.
Aradau, C. & van Munster, R. (2011). Politics of Catastrophe: Genealogies of the Unknown, London and New York : Routledge.
Bennet, C. J., Haggery, K. D., Lyon, D. et Steeves V. (dir.) (2014). Vivre à nu, la surveillance au Canada.
Brunton, F. & Nissembaum, H. (2015). Obsfucation. Cambrige, Massachussets. London, England : The MIT Press.
Deleuze, G. (1990). Pourparlers. Paris : Les éditions de minuit.
Foucault, M. (1975). Surveiller et punir. Paris : Gallimard.
Hardt, M. & Negri, T. (2004). Empire. Paris : 10/18. (Édition originale publiée en 2001)
Hildebrandt, M. (2013). « Slaves to Big Data. Or Are We? », Selected work from Hildebrandt, creative commons, Radboud University Nijmegen, pp. 1-22.
Lefort, C. (1986). Essais sur le politique XIXe - XX e siècles. Paris : Seuil.
Marcuse, H. (1968). L’homme unidimensionnel. Paris : Les éditions de minuit. (Édition originale publiée en 1964)
Mayer-Schönberger, V. (2014). « La Révolution Big Data », (Traduit de l’anglais par Valentine Deville-Fradin), Revue politique étrangère, Hiver 2014, no. 4, pp. 69-81.
Morin, E. (2004). Éthique. Paris : Seuil.
O’Neil, C. (2016). Weapons of Math Destructions. New York : Crown.
Ouellet, M. (2016). La révolution culturelle du capital, le capitalisme cybernétique dans la société globale de l’information. Montréal : Écosociété.
Pasolini, P.P. (1976), Écrits corsaires. Paris : Flammarion. (Édition originale publiée en 1975)
Rouvroy, A. (entretien avec) (2016). « L’art de ne pas changer le monde ». La Revue nouvelle. No. 8. pp. 44-50.
Rouvroy, A. (2015, 25 mai). « L’algorithme n’est pas un système de prédiction mais d’intervention ». Mediapart.
Rouvroy, A & Berns, T. (2013). « Gouvernementalité algorithmiques et perspectives d’émancipation ». Réseaux. 2013/1, no. 177. pp. 163-196.
Serres, M. (2012). Petite poucette. Saint-Amand-Montron : Édition Le Pommier.
Stiegler, B. (2010). Ce que fait la vie vaut la peine d’être vécue : de la pharmacologie. Paris : Flammarion.
Taylor, A. (2014). Démocratie.com. Montréal : LUX. (Édition originale publiée en 2014)
To quote this document
Ce(tte) uvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.