Dérives du numérique et possibilités de résistance - entre déterminisme technologique et espaces d'émancipation

algorithmes, Antonio Casilli, autorité, déterminisme technologique, digital labor, Dominique Cardon, Evgeny Morozov, pouvoir, pratiques

Dans le discours médiatique, on aperçoit souvent la tendance à opposer deux approches quelque peu caricaturales des enjeux politiques soulevés par le numérique : celle d'une part des optimistes, qui voient dans les technologies numériques une promesse de liberté et d'émancipation, celle d'autre part des pessimistes, qui soulignent les dérives possibles de la technologie et qui s’alarment des effets néfastes que le "développement technologique" pourrait avoir - ou a déjà - sur nos vies. Bien évidemment, le discours scientifique est beaucoup plus nuancé et presque aucun chercheur ne s’inscrit complètement dans l'une de ces approches.

Mais cette opposition reste si vive dans le discours public qu'il me semble important de la questionner. Les outils, en effet, ne sont jamais neutres et, sans non plus pouvoir être considérés en soi comme des biens ou comme des maux, ils supposent et véhiculent des valeurs et impliquent donc des configurations politiques particulières. En d'autres termes, on ne peut pas dire que "le" numérique soit un bien ou un mal, qu'il détermine une majeure liberté ou un plus fort contrôle, mais il est indéniable que les technologies produisent un espace social particulier, caractérisé par des valeurs spécifiques. En conséquence, il est indispensable d'en faire une critique : non pas de les critiquer, mais d'essayer de comprendre de quelle manière elles reconfigurent notre façon de percevoir le monde en produisant ainsi des structures éthiques et politiques - sur lesquelles ensuite sont basés nos jugements de valeur.

En d'autres termes, il est nécessaire de voir de quelle manière les technologies conditionnent nos actions pour pouvoir ensuite se concentrer sur nos marges de liberté à l'intérieur de cette configuration.

En particulier, je proposerai ici une brève analyse du discours de certains "pessimistes" pour essayer de nuancer leurs propos et de souligner de quelle manière nos pratiques peuvent contrer les effets pervers que ces critiques soulignent - très souvent à juste titre.

Une thèse qu'il me semble essentiel de reporter est celle défendue par Evgeny Morozov (The Net delusion, To save everything click hère) qui résonne dans l'approche proposée en France par Éric Sadin (La vie algorithmique) et par Roberto Casati (Contre le colonialisme numérique) - et que l'on peut retrouver, fortement nuancée, dans les travaux de Dominique Cardon (À quoi rêvent les algorithmes) et Antonio Casilli (Qu'est-ce que le Digital Labor).

La thèse pourrait être présentée ainsi: l'industrie technologique produit des outils qui structurent fortement l'ensemble de nos pratiques en  les normant et en les inscrivant dans une vision du monde particulière dont les valeurs sont par ailleurs très problématiques - pour ne pas dire néfastes. Morozov souligne que les géants de la Sillicon Valley nous proposent des services qui se présentent comme des solutions à nos besoins, mais que ce faisant, ils exercent un contrôle sur ces pratiques et décident de notre système de valeurs. Sadin montre comment notre vie se fait piloter par les algorithmes qui finissent par remplacer subrepticement notre capacité de décision. Casati souligne que sous prétexte de simplifier nos vies, les technologies finissent par les contrôler complètement. Ainsi Google nous impose sa vision du monde en acquérant un monopole sur la hiérarchisation des contenus - on ne voit que ce que PageRank nous propose et finalement on ne pense que ce que PageRank veut que nous pensions. De la même manière, Facebook détermine en large mesure notre façon de produire notre identité en structurant et en contrôlant la presque totalité de nos interactions sociales. Et encore, Amazon gère une grande partie de la distribution des produits culturels et son algorithme ne se limite plus à prévoir nos comportements pour mieux nous cibler, mais il en devient le prescripteur. Dominique Cardon analyse précisément les valeurs portées par ces plateformes et ces algorithmes tout en nuançant leur force de contrôle - mais très clairement, les discours les plus alarmistes sont ceux que le discours public relaye le plus facilement.

Nous devenons ainsi des esclaves de la technologie et nous nous faisons piloter par les intérêts commerciaux de ces colosses tout en ayant l'impression de profiter gratuitement de leurs services: en réalité ces services gratuits sont des puissants dispositifs de pouvoir par lesquels nous sommes exploités.

On peut interpréter de la même manière la proposition de Casilli et Cardon dans leur récent livre sur le digital labor où les deux chercheurs montrent que l'ensemble de nos pratiques - à partir du clic sur "j'aime" de Facebook en passant par les recherches sur Google jusqu'aux achats sur Amazon - peuvent être considérées comme du travail gratuit que nous réalisons pour ces plateformes. Celles-ci utilisent en effet nos actions pour récolter des données et pour augmenter leur capital: mettre nos photos sur Facebook ou faire une recherche sur Google ne signifie donc pas profiter de leurs services gratuits, mais au contraire travailler gratuitement pour eux.

Le bien-fondé de ces critiques me semble indéniable. Il me paraît cependant nécessaire de les nuancer et cela pour deux raisons fondamentales:

1. En premier lieu, on doit éviter de considérer l'ensemble hétérogène et complexe des pratiques numériques et des appareils technologiques comme un tout homogène. En d'autres termes, je pense qu'il faut éviter d'essentialiser la réalité complexe de nos pratiques actuelles sous la catégorie substantivée du "numérique". Je crois au contraire que l'on peut affirmer que "le" numérique n'existe pas.

2. En second lieu il faut éviter de confondre le discours de l'industrie avec la réalité technologique. Il y a un écart important entre ce que l'industrie nous dit à propos des technologies et ce que les technologies sont vraiment. Si l'on peut en effet identifier un discours industriel plutôt homogène et quelque peu inquiétant - le discours que résume bien le titre du dernier ouvrage de Morozov "To save everything, click here"-, il est aussi vrai - comme Morozov lui-même le montre - qu'on ne peut pas identifier un seul Internet (cf le débat entre Morozof et Manjoo).  En d'autres termes j'ai l'impression que Morozof, tout en voulant éviter de réduire Internet à une entité homogène, finit par le faire lui même en identifiant le numérique avec le discours de certains colosses de la Silicon Valley.

Or il est indéniable que les grandes plateformes jouent un rôle majeur dans nos pratiques d'aujourd'hui. Les statistiques le montrent. Il est vrai aussi que ces géants privés ont fini par prendre la place qui était celle de l'État à partir de la constitution des États nations. Mais mettre l'accent exclusivement sur cet aspect me semble dangereux, car il s'agit d'une manière de mettre en échec les pratiques collectives en déresponsabilisant profondément les usagers par rapport à leurs actions. En d'autres termes, ces critiques pêchent parfois de paternalisme: les intellectuels intelligents expliquent de quelle manière les pauvres usagers moyens se font avoir par les grands méchants. Ces mêmes usagers - c'est du moins la perspective qui transparaît dans le travail de Morozov - ne pourraient être sauvés que par un welfare State qui le prendrait par la main, mais malheureusement ce welfare State n'a plus la force nécessaire pour s'opposer à la puissance des géants de la Sillicon Valley.

À partir de ces considérations, il me semble que l'on peut se concentrer sur un modèle interprétatif qui rende davantage justice à l'hétérogénéité des pratiques et, surtout, qui remette au centre des actions des usagers le principe de responsabilité en leur accordant, en même temps, un plus haut niveau de discernement. Les usagers ne sont pas bêtes !

De fait :

1. Nos usages sont sans doute en partie pilotés par les grandes industries. Mais nos pratiques conditionnent et modifient les politiques de ces grandes industries. En ce sens, outre que leur fournir du travail gratuit, nos usages tendent à façonner les dispositifs numériques et à les modeler. Tout usage, même l'usage le plus standard, a en réalité une forte valeur performative et conditionne le développement des plateformes, des algorithmes et des outils. Nous injectons, donc, en tant qu'usagers, nos propres valeurs dans les structures des grandes industries. Il est vrai que tout usage, même s'il est un détournement, finit par être récupéré par le système marchand des grandes plateformes. Mais dans ce cercle vicieux, il y a la place pour une possibilité d'émancipation, dans la mesure où nos comportements deviennent normatifs pour les plateformes. Nous nous faisons certes conditionner, mais nous conditionnons en même temps. Nous sommes peut-être exploités, mais dans cette exploitation se cache aussi la possibilité d'une activité normative. De plus, les pratiques et les usages ne peuvent pas être considérés comme un tout lisse et homogène. Malheureusement, en tant que chercheurs - comme le montrait Aimée Morrison dans une récente conférence à l'Université de Montréal - nous avons tendance à analyser les pratiques "normales" de façon statistique comme un tout uniforme - et à ne relever que certaines pratiques exceptionnelles et marginales sortant du lot. Mais une analyse plus attentive nous montrerait que chaque usager façonne les plateformes avec ses propres usages et que grâce à la différence des pratiques dites "normales", des effets de détournement collectif surviennent continuellement.

2. Le discours industriel n'est pas le seul présent. En tant qu'usagers, nous sommes toujours à nouveau dans la possibilité de le contrer - au niveau individuel, mais surtout au niveau collectif. Cela met l'accent sur la nécessité d'être sensible aux enjeux politiques soulevés par les technologies - et c'est là sans doute le mérite des critiques radicales de chercheurs que je viens de citer. Une différence fondamentale peut être faite dans le choix de nos outils. Il existe ainsi plusieurs alternatives aux solutions critiquées par Morozov (cf ici, par exemple). Dans un billet de blogue je présentais leurs avantages et j'expliquais l'importance de réfléchir à ce problème. Par ailleurs, nous pouvons toujours créer des outils - je crois que c'est même là une de nos responsabilités. Cela implique bien évidemment des efforts et une certaine implication, mais l'émancipation en demande toujours. Nous pouvons, si nous le voulons, être actifs et ne pas subir ce qui nous est proposé. La liberté repose sur notre volonté d'engagement. Et cela n'est pas spécifique à la culture numérique, c'est une constante de tout dispositif politique.

algorithmes, Antonio Casilli, autorité, déterminisme technologique, digital labor, Dominique Cardon, Evgeny Morozov, pouvoir, pratiques Numérique