Marcello Vitali-Rosati est professeur au département des littératures de langue française de l'Université de Montréal.

Si l'on se préoccupait de l'achèvement des choses, on n'entreprendrait jamais rien

Culture numérique (Lyon)

ISSN 2269-577X

WTFPL

Tous les billets --- Scholia -- Ce qui pourrait...

L'"IA" est une ânerie: arrêtez de relayer le discours publicitaire!

2026-05-16 14:42:28.594924-04:00

GAFAM Intelligence artificielle

Billet écrit pour préparer une série de discussions qui auront lieu aujourd'hui et demain au festival du journalisme de Carleton-sur-Mer.

Les grandes entreprises du web nous ont rendus complètement imbéciles. Leur discours publicitaire est tellement présent que nous le confondons désormais avec la réalité. C'est ce que Baudrillard disait à propos de la télévision, quand il parlait du "crime parfait" où il craignait que notre réalité soit tuée et remplacée par la simulation proposée par la télévision. Je crois que Baudrillard avait tout faux, car il n'avait pas bien identifié d'où venait la menace. Elle ne venait pas des médias en tant que tels, mais des sociétés commerciales et de leur oligarchie. Notre réalité est désormais l'invention du discours publicitaire de deux ou trois compagnies américaines et elles ont bien réussi leur crime: le cadavre de la réalité a disparu et elle a été remplacée par leur discours. Le crime est parfait, car on ne remarque pas la disparition du mort.

Le discours sur ce qu'on appelle "Intelligence artificielle" est le symptôme le plus parlant de ce crime. On boit et on répète les âneries du discours publicitaire, même dans des cadres où on se l'attendrait moins, et notamment parmi les universitaires et les "experts". Nous sommes complètement aveuglés, complètement abrutis, nous n'arrivons plus à voir rien d'autre que le discours commercial.

Selon ce discours, l'Intelligence artificielle serait ce que nous proposent deux ou trois applications conversationnelles basées sur des LLMs. Selon ce discours, ces applications seraient :

  1. révolutionnaires
  2. très puissantes
  3. généralistes et universelles
  4. proches d'atteindre une (pas très bien définie) "intelligence artificielle générale"
  5. incontournables (tout le monde doit les utiliser.... "qu'on le veuille ou non, cette technologie est là pour rester"...)

En vérité, toutes ces idées ne sont rien d’autre que de grossières bêtises, des slogans publicitaires totalement trompeurs et stupides.

Il suffit de peu de bon sens pour le montrer et je vais essayer de le faire très rapidement ici.

Tout d'abord, l'expression "intelligence artificielle" est une formulation racoleuse, utilisée en 1955 par John McCarthy dans le cadre d'une demande de financement. McCarthy lui-même n'a jamais été particulièrement convaincu par cette expression: elle servait juste pour accrocher des financeurs. C'est une formulation sexy -- et publicitaire -- de quelque chose qu'on pourrait, de façon plus précise, appeler "ensemble d'approches computationnelles et algorithmiques pour automatiser des tâches spécifiques". Certes, cette formulation est moins sexy, mais c'est de cela qu'il s'agit: un ensemble très large et différencié d'approches computationnelles.

Il y a d'innombrables tâches qu'on peut automatiser: le calcul, la capacité d'extraire une information d'une base de données, la capacité de refaire un lit, de corriger l'orthographe d'un mot, de distinguer les couleurs, de prévoir l'heure du coucher du soleil, de se rappeler une date, d'avoir une conversation, de conduire une voiture, de planter des tomates, etc.

Or la première ânerie à laquelle le discours commercial nous a pliés est de croire que "l'intelligence" consiste exclusivement en une tâche: celle de savoir converser. Toute cette panoplie complexe de tâches est réduite à une seule. Tout devient capacité de converser et on investit exclusivement dans des technologies capables de converser: justement des grands modèles de langue. (On pourrait objecter que j'exclus les "modèles de frontière" ou les modèles multimodaux: mais l'ensemble de ces technologies, telles que proposées par les GAFAM, passent, en premier et dernier lieu, par la manipulation de la langue naturelle). Or cela pose un nombre infini de problèmes. Savoir converser, typiquement, ne signifie pas être expert d'un sujet ni avoir une idée quelconque de vérité. Je peux être excellent à converser à propos de la météo, on peut apprécier l'élégance de mon éloquence et ma capacité d'utiliser parfaitement toutes les nuances de la langue pour parler de la météo; mais cela ne signifie pas nécessairement que je suis un expert de météo ni que ce que je dis corresponde à la vérité. Et, ce qui est encore plus important, il y a une série d'activités et de capacités qui n'ont absolument rien à voir avec la conversation ou avec la manipulation de la langue naturelle: typiquement tout ce qui a été formalisé avec un langage logique ou mathématique, et donc, notamment, la science à partir du tournant moderne. Dans l'histoire de la science, on identifie l'émergence de la science moderne avec le moment où on a décidé de libérer complètement les disciplines scientifiques de l'ambigüité de la langue naturelle pour les fonder sur la non-ambigüité du langage mathématique. Le fait de réduire l'intelligence artificielle aux approches basées sur les LLMS signifie jeter à la poubelle toute la science moderne. Faire du code avec des LLMs, par exemple, signifie renoncer à la seule chose intéressante du code: le fait d'incarner des modèles formels, logiques et non ambigus.

Voilà donc la première bêtise que nous ont fait gober les GAFAM: IA = agents conversationnels. Alors que, depuis les années 1940, on développe plein d'approches computationnelles différentes et adaptées à des questions et des cas particuliers.

Or, venons aux différentes caractéristiques que cette "IA" devrait avoir aujourd'hui:

  1. Elle serait révolutionnaire. On prend désormais la date de sortie d'un produit commercial (chatGPT) comme une date de rupture. Mais la seule rupture qu'il y a eu est une rupture publicitaire: le fait que, sous la pression immense d'une compagnie privée, les médias ont commencé à parler beaucoup de quelque chose qui existe depuis très longtemps. Les approches computationnelles n'étaient pas trop à la mode à partir des années 1990. Après une époque faste de présence dans le discours public, on était passé à autre chose -- le web, la circulation des contenus, le "numérique". Les recherches sur les méthodes computationnelles n’ont jamais cessé, conduites non pas par quelques entreprises privées, mais par des chercheurs et chercheuses qui ont développé des algorithmes variés et différents pour résoudre une variété de problèmes captivants, y compris le traitement automatique des langues. Les approches inductives, fondées sur le principe du perceptron, font partie de ces méthodes depuis 1946. Il n'y a eu aucune révolution en 2022, parler de révolution signifie ignorer le travail de la recherche et ne pas comprendre l'évolution lente et irrégulière d'une tendance d'analyse formelle du monde qui caractérise nos civilisations depuis leur préhistoire.
  2. Ces technologies seraient "très puissantes", "très performantes" ou en tout cas beaucoup plus "puissantes" que des technologies préexistantes. Or cette "puissance" ne correspond qu'à l'énormité des investissements et à leur concentration. Les agents conversationnels réalisent de manière excellente la tâche pour laquelle ils sont programmés: manipuler la langue naturelle. Mais le coût computationnel pour le faire est énorme. Pour réaliser d'autres tâches -- par exemple, extraire des informations précises d'un texte -- souvent leur "performance" est très médiocre si on s'arrête un instant à analyser la tâche demandée et à comparer ce que fait un agent conversationnel avec ce qu'on peut faire avec d'autres méthodes. Souvent, j'ai vu des collègues s'émerveiller devant les résultats d'un chatbot pour trouver des choses dans un texte qui auraient pu être trouvées avec une regex (si vous ne savez pas ce qu'est une regex, vous devriez réaliser que votre manque de littératie vous rend encore plus vulnérables au discours commercial qui vous vend des solutions à des problèmes dont vous n'avez aucune compréhension). Or la réalité est que la performance d'un agent conversationnel est souvent très médiocre: il demande des ressources très grandes pour faire une chose de manière moyennement fiable, alors qu'une autre approche computationnelle aurait pu faire la même chose de manière plus fiable et à un cout computationnel incomparablement plus bas.
  3. Les grandes compagnies numériques nous poussent à utiliser ces technologies pour tout faire. Le matraquage publicitaire essaye de nous faire croire que ces applications -- qui, en réalité, ne savent bien faire qu'une chose somme toute très limitée et spécifique, à savoir converser -- devraient être utilisées pour accomplir n'importe quel type de tâche. Par exemple: rechercher des informations. Or utiliser un agent conversationnel pour chercher des informations est une aberration totale. C'est comme essayer d'ouvrir une porte avec un bazooka: on aura un résultat qui semblera analogue à l'ouverture de la porte, mais on n'aura pas ouvert la porte, on aura défoncé un mur et peut-être le bâtiment entier -- en rendant l'ouverture de la porte complètement inutile, vu qu'il n'y aura plus de bâtiment. Un LLM n'a aucune conception de la vérité et cela par design. Le fait que l'analyse statistique du corpus d'entrainement permette de reproduire des discours qui imitent de façon probabiliste les connaissances qui sont contenues dans le corpus n'a rien à voir avec une idée quelconque de connaissance: car la connaissance nécessite aussi de structures déterministe et experte et que ces algorithmes ne peuvent pas, par design, être déterministes ni experts. On peut certes investir encore et rajouter des couches applicatives pour "corriger" le problème, mais l'approche reste aberrante. Au lieu d'ouvrir la porte juste en utilisant la poignée, on dépense des millions pour construire des bazookas qui permettent de ne pas défoncer le bâtiment et d'autres millions pour renforcer les bâtiments autour de la porte pour qu'ils tiennent le coup quand on lui tire dessus avec le bazooka. Rechercher une information pourrait se faire, par exemple, avec des requêtes sparql sur des bases de connaissance (comme wikidata)... cela aurait un coup computationnel pratiquement égal à 0 et donnerait la bonne réponse (des objections débiles à mon argument peuplent désormais le discours, suite à l'influence de la publicité: "oui, mais, désormais on a affaire à des "agents" qui mobilisent des applications", etc.: c'est faux, le résultat est le même, non déterministe, probabiliste et inutilement couteux, mais pour le démontrer, il faudra un autre billet de blog).
  4. Des gens comme Musk et Altman (oui, désormais, on se fie à des multimillionnaires sans aucune autre compétence que l'argent qu'ils ont cumulé de manière complètement fortuite pour se faire une idée sur le monde) n'arrêtent pas de nous le dire: nous allons bientôt atteindre l'"intelligence artificielle générale". Comme si l'intelligence pouvait être une seule chose. C'est quoi l'intelligence? Que signifierait une "intelligence générale"? Cet argument est stupide parce qu'il pense pouvoir se passer de donner une définition d'intelligence, d'une part et d'autre part parce qu'il présuppose que l'intelligence peut être pensée comme une chose unique, mesurable de manière uniforme. Il y aurait donc une échelle et des choses plus ou moins en haut de cette échelle. C'est ce que Samuel Buttler proposait en 1860 en appliquant de façon très naïve l'idée de sélection naturelle de Darwin: dans une lettre envoyée au journal "The press", le 13 juin 1863, intitulée Darwin among the machines, il se demande qui sera le successeur des êtres humains dans la domination de la Terre. Les machines pourraient prendre cette place et se mettre au sommet de la hiérarchie de l’évolution et "dépasser" les humains. Sauf que l'évolution ne fonctionne pas comme cela... sinon il n'y aurait plus autre espèce que l'homo sapiens... L'évolution et la sélection sont situées, par rapport à des contextes et des environnements particuliers -- ce qui fait que chaque espèce évolue de manière parallèle aux autres et qu'il n'y a pas une sélection naturelle transespèce. L'argument de l'intelligence artificielle générale oublie la question de l'environnement et du contexte qui oblige à comprendre qu'il ne peut qu'y avoir une multiplicité très grande d'intelligences différentes. Or qu'Altman puisse le penser, soit, cela nous en dit beaucoup de son ignorance profonde et de sa naïveté -- outre que de son rôle commercial... ce qu'il veut, c'est faire de l'argent et non nous instruire pour augmenter notre connaissance. Mais que des "experts" puissent le penser! Les bras m'en tombent.
  5. Finalement ces outils nous sont imposés comme "incontournables". En effet, les GAFAM les foutent partout et il devient presque impossible de les éviter: les moteurs de recherche nous les imposent, toutes les applications multiplient les petites icônes avec des étincelles pour signifier l'usage d'un LLM, les applications de bureautique en sont pleines... Sans qu'on puisse choisir, les sociétés commerciales dont nous sommes devenus dépendants décident désormais que nous allons utiliser des agents conversationnels pour tout faire, même quand leur utilisation n'est pas pertinente, même quand elle est complètement aberrante. Et quelle est notre réaction? Nous disons: et ben, on ne peut pas résister au progrès, il faut s'y faire. "Ces technologies sont là pour rester", il faut former les jeunes à les utiliser. Donc ok: il faut que nos sociétés s'adaptent à la volonté de deux sociétés commerciales -- à savoir leur faire faire de l'argent. C'est comme si on disait que nos sociétés doivent imposer à tout le monde de boire 10 litres de Coca-Cola par jour parce que Coca-Cola le veut. Et surtout, interdisons l'eau et disons que qui boit de l'eau est crétin, car le coca est tellement meilleur, tellement plus performant, tellement plus....

Que faut-il faire alors? À mon avis, il faudrait d'abord et avant tout arrêter d'utiliser les applications des grandes entreprises du web. Il faut les bannir, toutes: de Microsoft Word à ChatGPT en passant par Google search, Facebook, Windows, MacOS : il faut s'en débarrasser. Il faut en même temps arrêter d'écouter leur discours publicitaire. Il faudrait aussi que les médias arrêtent de le relayer. Si on arrive à se libérer de cette emprise, il faut ensuite regarder les approches algorithmiques de manière complètement différente. La question n'est pas du tout celle de l'opposition humain-machine. Il ne s'agit pas de trouver des raisons bidon pour justifier que les humains sont encore meilleurs que les machines. Cela signifie retomber dans la naïveté crétine de l'argument de Buttler. Comme s'il y avait une seule tâche, une seule intelligence, un seul type de contexte et d'environnement possible. Que la tâche soit accomplie par une machine ou par un être humain n’a pas d’importance. Ce qui compte, c’est de reconnaître la richesse et la variété des cadres épistémologiques qui sous-tendent les différents types d’actions et de compétences. Il faut chérir la capacité de formalisation, la capacité de gérer des langages non ambigus, comme les mathématiques, les capacités nécessaires pour refaire un lit, pour comprendre si un feu est vert ou pas et aussi pour comprendre la raison pour laquelle il faut utiliser un participe passé plutôt qu'un présent indicatif (et qu'il faut donc un é et pas un ez). Certaines de ces tâches sont bien modélisées par certains algorithmes. Les LLMs modélisent quelque chose de profondément intéressant à propos de la langue et de son fonctionnement. Quoi exactement? L'approche étant inductive, il n’est pas trivial de le comprendre. Essayons d'abord de mieux l'étudier. Utilisons ensuite ces approches de façon pertinente (seulement quand, en effet, nous avons besoin de quelque chose qui nécessite l'usage de la langue naturelle) et diversifiée: non seulement des chatbots, mais des interfaces de traduction, de correction automatique, etc. Et ayons l'intelligence de comprendre que, dans un très large nombre de cas, ces approches sont juste inadaptées et non pertinentes. Souvent, une calculette sera préférable -- plus fiable, plus rapide et plus performante -- qu'un LLM.

Et faisons attention à bien comprendre quel doit être notre objectif polémique. Ne faisons pas l'erreur de Baudrillard. Le risque ne vient pas des approches algorithmiques, ne vient pas des LLMs des LxMs, ni des "machines". Le risque vient de la concentration de pouvoir et des richesses dans les mains d'une poignée d'entreprises. Si Google produisait des marteaux, on devrait s'inquiéter de voir des marteaux partout, de voir que tout sera martelé et on devrait craindre la disparition du monde par martèlement.