
Marcello Vitali-Rosati est professeur au département des littératures de langue française de l'Université de Montréal.
Si l'on se préoccupait de l'achèvement des choses, on n'entreprendrait jamais rien
2025-01-21 10:34:02+00:00
LLMs Platon Aristote vérité vraisemblance démocratie
Mais alors chatGPT est-il bon ou mauvais? C'est la question que nous semblons tous nous poser depuis 2022. Il y a pléthore d'articles plus ou moins spécialisés qui essaient d'évaluer la qualité de chatGPT et de toutes les autres applications qui utilisent des LLMs (un exemple récent sur le NYT).
Mais cette question est mal posée: il faut plutôt s'interroger sur ce que font ces algorithmes et quelles sont les valeurs et les visions du monde qu'ils implémentent. Ensuite on se rendra compte que, selon notre point de vue et notre manière de penser, ces applications nous conviendrons plus ou moins.
Il n'est pas vrai que les algorithmes inductifs à la mode aujourd'hui sont plus performants que d'autres: au contraire, ils nous semblent performants parce qu'ils s'adaptent bien à notre vision du monde. [Une idée de ce type est aussi défendue par Matteo Pasquinelli dans son The eye of the master]
Par exemple, je suis certain qu'Aristote aurait adoré chatGPT alors que Platon l'aurait détesté. Par ailleurs, les raisons pour lesquelles Aristote aurait aimé chatGPT sont les mêmes qui nous le font aimer. Car nous l'aimons, en effet: il suffit d'observer l'explosion d'usages qu'on constate depuis quelques années mais aussi, et surtout, la concentration des financements de recherche sur ce type d'approches -- qui, nous le rappelons, ne sont pas les seules possibles en IA.
Pour savoir si on aime ou pas chatGPT, il faut se demander si on préfère la vérité ou la vraisemblance. Dans la Poétique Aristote est très clair sur ce sujet. Il explique qu'un poète ne doit pas "parler de ce qui est arrivé, mais bien de ce qui aurait pu arriver et des choses possibles". Pourquoi? Parce que le théâtre doit attirer le consensus du public, et l'important est donc non pas de dire quelque chose de vrai, mais de dire quelque chose de crédible. Cela ne sert à rien de dire la vérité si le public n'y croit pas. En fait on n'a aucun intérêt même à se poser la question de ce qui est vrai et ce qui ne l'est pas, car l'objectif est exclusivement de convaincre et non de transmettre une connaissance sur ce qui est vrai. Donc à une chose vraie, mais difficilement crédible ou compréhensible, doit être préférée une chose dont on ignore si elle est vraie ou pas, mais dont on sait qu'elle est très probable, qu'elle est déjà arrivée et qu'elle va être donc très crédible. Le public va suivre.
Or les LLMs sont justement des modèles probabilistes qui font exactement ce qu'Aristote demande aux poètes: ils sont entraînés, sur la base d'un large corpus, à prédire les phrases les plus probables. Quand on donne un prompt à chatGPT ce que fait l'algorithme est de calculer quels sont les mots les plus probables qui viendront après les mots de notre prompt. C'est ce qui a été défini -- dans un article qui a fait beaucoup parler, car écrit par des personnes travaillant dans le département IA de Google -- des "perroquets stochastiques". Ils prennent donc tous les contenus sur lesquels ils sont entraînés pour calculer des probabilités et répètent ce qu'ils ont vu (c'est pourquoi ils sont des perroquets) en le combinant de la manière la plus probable possible (stochastique est plus ou moins synonyme de probabiliste).
De cette manière, les contenus que ces applications produisent sont très vraisemblables car ils sont très probables, mais on ignore complètement s'ils sont vrais ou pas. Cela n'est pas dû, comme on le suggère souvent, à un mauvais fonctionnement -- ce qu'on appelle des hallucinations. Le modèle n'hallucine pas, exactement comme le poète d'Aristote n'hallucine pas; c'est juste que sa tâche, ce pourquoi il a été dessiné et programmé, son objectif, est de dire quelque chose de probable et non de vrai. Il n'a aucune conception de ce qui est vrai car on ne lui a même pas demandé de se poser la question.
Ce fonctionnement régit fondamentalement la totalité d'algorithmes à la mode aujourd'hui, à savoir tous ceux qui sont basés sur l'induction faite avec ce qu'on appelle "apprentissage profond". Ces méthodes analysent un corpus de données -- le plus gros possible -- et ensuite approximent une fonction qui soit capable de les prédire, à savoir une fonction qui représente une distribution de probabilités. Qu'il s'agisse de reconnaissance faciale, de modèles de langue, de modèles météo, le principe est le même: ce qui compte est la probabilité et jamais la vérité.
Mais que se passe-t-il si nous préférons la vérité à la vraisemblance? C'est justement le cas de Platon qui dans ses dialogues, et en particulier dans la République fait une critique féroce contre le théâtre et les poètes justement parce qu'ils proposent quelque chose de probable, de crédible, d'attirant pour le public qui peut le comprendre, mais qui n'est pas vrai. Si on s'arrête sur cette critique de la vraisemblance, on peut facilement comprendre pourquoi Platon, dans le même dialogue, affirme que la démocratie est le pire des gouvernements. Il dit que la démocratie se transforme toujours en démagogie: pour avoir le consensus des masses, les politiciens vont leur dire des choses fausses mais, facilement crédibles, vraisemblables. Ils vont préférer le probable au vrai, car ils sont comme des poètes dont l'objectif n'est pas d'instruire, mais de remplir les salles.
Nos démocraties occidentales contemporaines ressemblent hélas de plus en plus à ce que prévoyait Platon. N'est-ce pas justement la stratégie de Trump -- avec son idée d'alternative facts -- ainsi que d'innombrables autres politiciens au US et à l'international (je dirais tous, sans avoir peur de me tromper) -- de raconter des histoires fausses, mais qui plaisent aux électeurs parce qu'elles les confortent dans leurs croyances ou tout simplement parce qu'elles sont faciles à comprendre?
L'intelligence artificielle peut être probabiliste -- comme le sont la plupart des approches à la mode aujourd'hui -- mais elle peut aussi être "experte". Il y a beaucoup d'algorithmes qui "savent" la vérité et qui sont conçus pour la dire. On peut utiliser des bases de connaissance et les interroger pour avoir des informations précises et vérifiées, par exemple. Les approches probabilistes sont exceptionnelles pour résoudre des problèmes probabilistes, mais elles ne doivent pas devenir la réponse universelle à tous les besoins. Que la vraisemblance et la probabilité aient une place dans nos vies c'est évident, mais il faut faire attention à ne pas sacrifier sur l'autel de la vraisemblance et de sa puissance à attirer le consensus du public la vérité et la connaissance.