Ce qui pourrait être autrement: il n'y a pas de machines, ni d'êtres humains

machines, syntaxe, sémantique, sens, anthropocentrisme, John Searle, Alan Turing, Giulio Tononi, Pierre Lévy

Lire les autres billets de la série

Suppose that I’m locked in a room and given a large batch of Chinese writing. Suppose furthermore (as is indeed the case) that I know no Chinese, either written or spoken, and that I’m not even confident that I could recognize Chinese writing as Chinese writing distinct from, say, Japanese writing or meaningless squiggles. To me, Chinese writing is just so many meaningless squiggles. Now suppose further that after this first batch of Chinese writing I am given a second batch of Chinese script together with a set of rules for correlating the second batch with the first batch. The rules are in English, and I understand these rules as well as any other native speaker of English. They enable me to correlate one set of formal symbols with another set of formal symbols, and all that “formal” means here is that I can identify the symbols entirely by their shapes. Now suppose also that I am given a third batch of Chinese symbols together with some instructions, again in English, that enable me to correlate elements of this third batch with the first two batches, and these rules instruct me how to give back certain Chinese symbols with certain sorts of shapes in response to certain sorts of shapes given me in the third batch. Unknown to me, the people who are giving me all of these symbols call the first batch a “script,” they call the second batch a “story,” and they call the third batch “questions.” Furthermore, they call the symbols I give them back in response to the third batch “answers to the questions,” and the set of rules in English that they gave me, they call the “program.” Now just to complicate the story a little, imagine that these people also give me stories in English, which I understand, and they then ask me questions in English about these stories, and I give them back answers in English. Suppose also that after a while I get so good at following the instructions for manipulating the Chinese symbols and the programmers get so good at writing the programs that from the external point of view—that is, from the point of view of somebody outside the room in which I am locked—my answers to the questions are absolutely indistinguishable from those of native Chinese speakers. Nobody just looking at my answers can tell that I don’t speak a word of Chinese. Let us also suppose that my answers to the English questions are, as they no doubt would be, indistinguishable from those of other native English speakers, for the simple reason that I am a native English speaker. From the external point of view—from the point of view of someone reading my “answers”—the answers to the Chinese questions and the English questions are equally good. But in the Chinese case, unlike the English case, I produce the answers by manipulating uninterpreted formal symbols. As far as the Chinese is concerned, I simply behave like a computer; I perform computational operations on formally specified elements. For the purposes of the Chinese, I am simply an instantiation of the computer program.

Searle, John R. « Minds, Brains, and Programs ». Behavioral and Brain Sciences 3, nᵒ 3 (septembre 1980): 417‑24.

L’opposition entre êtres humains et machines et un leurre. Je n’ai jamais été convaincu par l’expérience de la chambre chinoise de Searle.

Quelques considérations sur ce Gedankenexperiment:

  1. Searle est évidemment en train de reprendre le fameux Imitation game de Turing (cf. Turing, A. M. « Computing Machinery and Intelligence ». Mind, New Series, 59, nᵒ 236 (1 octobre 1950): 433‑60). C’est intéressant qu’il est toujours question non tellement de définir la machine par rapport à l’humain, mais plutôt de définir l’humain par rapport à la machine. On a besoin de définir l’être humain par opposition à quelque chose d’autre, quelque chose d’inférieur: les animaux, les automates et maintenant les ordinateurs. Par rapport à la machine - qui ne comprend pas - l’être humain, lui, comprend. Le rapport avec l’anglais, dans la description de Serale sert à affirmer cette supériorité.
  2. La préoccupation de Searle est de démontrer l’irréductibilité de la conscience à autre chose (la matière? il est encore question d’immatérialité). L’opposition entre syntaxe et sens est le pivot pour démontrer cette irréductibilité - qui est d’ailleurs au centre d’innombrables discussions actuelles, comme le hard problem of consciousness discuté par Chalmer entre autres. Mais cette irréductibilité est à mon sens un faux argument basé sur une idéologie anthropocentrique qui essaie de justifier la supériorité humaine. En réalité la sémantique n’est qu’une syntaxe complexe. Il suffit de faire un peu de code pour le voir.

Essayons de mieux décrire l’expérience de Searle. Admettons que nous ayons deux symboles (pourquoi parler de chinois? un symbole quelconque fait l’affaire. Le chinois est déjà un biais introduit par Searle - typiquement quelque chose qu’en occident l’on associe à l’impossibilité de comprendre. Ce biais montre aussi les conséquences politiques dangereuses de la séparation entre “homme” et machine, mais ça c’est une autre histoire):

a ?

et

b

Admettons d’avoire une table de correspondances qui précise que a? doit être suivi de b.

Il s’agit d’une instruction facile à appliquer. Une machine est capable de le faire : lorsque l’entrée est a?, elle donne la sortie b.

Ce n’est que de la syntaxe. Il n’y a pas de sens.

L’exemple suivant est presque identique. Il existe deux symboles composés d’un ensemble de caractères : Qu'est-ce que le soleil ? et Une étoile.

Il existe ensuite une table qui précise que Qu'est-ce que le soleil ? doit être suivi de Une étoile.

Quelle est la différence entre ces deux exemples ? D’un point de vue syntaxique, il n’y a aucune différence. Mais il y a une différence, selon Searle, s’il n’y a plus de table de correspondance : une machine ne sera pas capable de combiner le premier symbole avec le second. Mais quelqu’un - ou quelque chose - qui est capable d’aller au-delà de la syntaxe et de comprendre le sens, sans avoir besoin d’une table, sera capable de combiner les deux. En effet, il “comprendra” ce que signifient “soleil” et “étoile”. Pour renforcer cet exemple, il est possible de faire appel à un pronom et, en supposant qu’il se réfère à une structure autonome et bien définie, de dire : “vous ressentez quelque chose de différent lorsque vous lisez a puis b et lorsque vous lisez Qu'est-ce que le soleil ? puis une étoile”.

Le problème est que cet exemple est conçu pour définir clairement l’ensemble des éléments disponibles dans le premier cas et pour laisser ambigus les éléments disponibles dans le second cas. Dans le premier cas, il n’y a que les deux symboles et le tableau. Dans le second, il y a autre chose. Mais qu’est-ce que ce quelque chose d’autre ? La réponse que l’exemple tente de susciter est la suivante : “le sens”, en supposant que le sens est ce qui reste après avoir considéré tous les éléments déclarés. Mais le problème est que ces éléments n’ont pas été déclarés. Et s’il existait de nombreux tableaux, chacun définissant des instructions pour établir des relations entre différents symboles ? Une table établissant une relation entre le symbole “Soleil” et le symbole “étoile”, une autre établissant une relation entre “Soleil” et une image, une autre établissant une relation entre “étoile” et “brillant”, une autre entre “brillant” et “chaud” et entre “soleil” et “étoile de type naine jaune d’une masse d’environ 1,989 1 × 10 kg, composée d’hydrogène (75 % de la masse ou 92 % du volume) et d’hélium (25 % de la masse ou 8 % du volume)” (source Wikipédia), et ainsi de suite. Imaginez des millions, des milliards, des trillions de ces relations. L’exemple serait-il encore valable ?

Une idée semblable est celle formulée à propos de la nature de la conscience par Giulio Tononi, cf., par exemple ici. Par ailleurs une approche au rapport syntaxe/sémantique qui permettrait de donner raison à mon hypothèse est celle proposée par Pierre Lévy avec son langage artificiel IEML qui est justement construit sur l’identité entre syntaxe et sémantique. Cf. ici.

Et s’il n’y avait pas de “machines”? Ni d’êtres humains?

Et pour conclure, un peu d’humour de Turing - qui démontre bien par ailleurs les enjeux politiques derrière cette hiérarchisation entre être humain et machine: qui est supérieur? qui est digne que je lui adresse la parole?:

Likewise according to this view the only way to know that a man thinks is to be that particular man. It is in fact the solipsist point of view. It may be the most logical view to hold but it makes communication of ideas difficult. A is liable to believe ‘A thinks but B does not’ whilst B believes ‘B thinks but A does not.’ Instead of arguing continually over this point it is usual to have the polite convention that everyone thinks.

machines, syntaxe, sémantique, sens, anthropocentrisme, John Searle, Alan Turing, Giulio Tononi, Pierre Lévy cequipourrait