Standard Stupidity System (SSS) made in GB-USA

Standard Stupidity System (SSS) made in GB-USA
Le texte ci-après présente une nouvelle mouture du Chapitre 7 du livre en cours de préparation sur les Manifestes contre le DSM (France, Espagne, Argentine et bientôt Brésil, et autres pays de langue espagnole et portugaise) - le DSM étant le nouveau manuel de psychiatrie vétérinaire internationale. On explique la faiblesse intellectuelle profonde du soubassement philosophique dont se supporte (in)consciemment la mentalité culturelle et scientiste dominante de l’impérialisme nord-américain.

Chapitre 7

7.1. Le monde de l’ (o)utilité saisi dans le bavardage quotidien, 1
7.2. Petite galerie d’autres figures de la sottise moderne, 1
7.3. L’opposition entre idéal de l’ordre et idéal du mouvement, 3
7.4. La grammaire générative ou le moulin à paroles, 4
7.5. Le positivisme logique : une « science » de l’observation et de la mesure, 11
7.6. La philosophie analytique : le vide de la parole correcte, 13
7.7. Le règne animal de l’esprit, 15.

Les deux visages de l’empirisme nord-américain

7.1. La monde de l’(o)utilité saisi dans le bavardage quotidien

Les deux termes utilisées par Heidegger dans Sein und Zeit de monde de l’ « (o)utilité » (Zeughaftihkeit) et du « bavardage quotidien » (Gerede) me paraissent désigner assez bien l’espace contemporain où évolue cette forme de pensée vide, d’absence de pensée que réalise en intention comme en fait ce que l’on appelle ici empirisme nord-américain. Mais il en a existé d’autres anticipations philosophiques assez nombreuses : le premier genre inférieur de connaissance chez Platon (opinion, représentation confuse, imagination, conjecture, croyance), chez Spinoza (connaissance par ouï-dire, par expérience vague, mutilée et confuse), chez Hegel (les deux premiers des trois temps de la pensée : pensée du rien, rien de la pensée, suivie de la pensée du particulier, dont le champ est la Nature, ce qu’il a appelé aussi parfois « la prose du monde ») et chez Sartre (la nausée, la facticité).

7.2. Petite galerie d’autres figures de la sottise moderne

Il y a à signaler également qu’une certaine littérature française du XIXe et du XXe siècles produit un bestiaire assez consistant de cette forme d’idiotie de la conscience stupéfaite devant le spectacle désolant du nouveau monde de la révolution technique, industrielle et financière, devant ce nouvel espace de la stupidité ordinaire, de la sottise quotidienne. Tout d’abord les deux imbéciles autodidactes et nourris du dictionnaire des idées reçues, Bouvard et Pécuchet, créatures de Flaubert, et citoyens de Chavignolles près de Caen, là où officie également un Michel Onfray, mais ce n’est qu’un hasard. Il y a Monsieur Prudhomme, les visages de Daumier, les héros de Christophe (le savant Cosinus, le sapeur Camember, La Famille Fenouillard et les lutins Plick et Plock). Laissons la bouille ahurie de Tintin au Congo. La figuration de la conscience moderne stupéfaite devant l’absurdité du nouveau monde de l’empirisme existe aussi aux USA : le Charlot des Temps modernes, le Buster Keaton du Mécano de la Général, Lucky Luke (en fait belge comme Tintin) tirant plus vite que son ombre mais conduit par son cheval plus intelligent. J’ai parlé aussi ailleurs d’un article très inspiré du psychologue René Zazzo intitulé : « Qu’est-ce que la connerie, madame ? » (Critique de la raison en psychologie, 406, 420-421).

Cet exergue une fois posé, on tentera dans ce qui suit d’approfondir la question de l’empirisme nord-américain, en commençant par rassembler les qualificatifs dont on l’a désigné dans des analyses antérieures, avant d’essayer un progrès nouveau dans une analyse difficile.

Dans Psychanalyse et psychologie 1, on parlait, sans user encore comme telle de cette expression d’empirisme nord-américain, de la « formidable aliénation des sciences humaines et de la culture européennes dans le paradigme empiriste, sensualiste, atomiste, élémentariste, association-niste, positiviste, pragmatiste, conventionnaliste, artificialiste, mécani-ciste, réductionniste, techniciste, actualiste, opportuniste, anti- et même irrationnaliste, coloré enfin d’un dogmatisme éthico-religieux et politique naïf, de type états-unien. »

Dans le cours de notre actuel développement, nous reprenions ces termes en en ajoutant encore un certain nombre d’autres plus ou moins synonymes et/ou complémentaires, y compris à présent certains entre [ ] : naturalisme, phénoménisme, physicaliste, utilitarisme, nominalisme, [contextualisme vs] anti-historicisme, relativisme vs dogmatisme [techno-]scientiste, comporte-mentalisme, chosisme, factualisme, esprit de recherche et d’innovation vs traditionnalisme et [révisionnisme] conservateur, opérationnalisme, vérifiabilité perceptive, approche statistique et quantitative[computationniste], [anti-conceptualisme et anti-théoricisme], [micro]intervention-nisme vs [macro]libéralisme économique, dé-mocratisme de surface [vs ségrégation sociale], auto-ritarisme technocratique, a-conflictualisme, idéologisme moralisateur [et puritain], [circonspec-tion] déontologique.

On ajoutera encore : primat de l’analyse sur la synthèse (contre la tradition cartésienne européenne) soit analytique-antithétique [≠ synthé-tique-analytique], pluralisme [≠ monisme], matérialisme [≠ spiritualisme] vulgaire et anti-dialectique [≠ dialectique], tendance au morcèlement catégoriel, doctrinarisme méthodologique, athéorisme et neutralisme [anti-subjecti-viste et antimétaphysique], esprit d’entreprise institutionnelle vs scholarquisme et pédantisme universitaires. Certaines de ces catégories en recoupant d’autres précédentes (atomisme, élémentarisme ; positivisme). Dans ce qui précède, « ≠ » désigne l’opposition franche à un adversaire externe, « vs » la présence antinomique conjointe de deux tendances contradictoires dans le cadre de l’empirisme nord-américain.

L’empirisme anglo-américain est traditionnellement associé, du point de vue de l’approche explicative en psychologie, à la prévalence du dehors sur le dedans, de l’influence centripète du milieu à l’égard de l’action centrifuge de l’organisme-sujet, au primat de l’apprentissage sur la structure et/ou la dynamique endogène, de l’acquis sur l’inné (nurture vs nature), des facteurs externes sur les facteurs internes de la conduite, de l’événement ou de l’histoire sur la disposition ou la constitution. Tel est le dénominateur épistémologique de base de l’associationnisme pré-scientifique des XVIIIe et XIXe siècles, en fait préservé par le béhaviorisme classique antérieur aux années 1950. Et par le cognitivisme prospérant dans la même lignée à partir de 1956.

7.3. L’opposition entre idéal de l’ordre et idéal du mouvement

En réalité, la chose est un peu moins simple, si l’on s’en tient à une définition un peu plus extensive de l’empirisme, auquel cas on y distinguera deux blocs de théories formant thèse et antithèse : d’un côté « génétiques », et de l’autre « nativistes », voire « perceptionnistes ». L’empi-risme est en effet (Cuvillier) « la doctrine selon laquelle la con-naissance humaine tout entière dérive, directement [minimum d’apprentissage : nativisme] ou indirectement [maximum d’appren-tissage : génétisme] de l’expérience et qui n’attribue par suite à l’esprit aucune activité propre. » Ce qu’ont en commun ces deux types doctrinaux opposés, c’est leur réalisme ou encore naturalisme, impliquant la passivité d’un sujet-chose, et qui s’oppose à l’idéalisme, consistant à faire dépendre le réel de l’idée, l’être de la pensée, les « choses » de l’activité de l’esprit.

Cette opposition relative au sein de l’empirisme entre nativisme et génétisme, d’abord apparue en Europe chez des auteurs français et anglais n’est pas sans évoquer, toutes proportions gardées, celle ayant existé dans l’histoire politique française entre un parti de l’ordre (y compris moral) conservateur et un parti du mouvement républicain (Malet-Isaac, 1797, 1831, 1873), aujourd’hui grosso modo blocs de droite et de gauche, en Angleterre aussi entre partis tory et whig , comme aujourd’hui encore aux USA entre conservateurs et républicains (Crise la psychologie à l’université en France, tome 2, 216).

On tentera dans ce qui suit d’approfondir la question de l’empirisme nord-américain, en commençant par rassembler les qualificatifs dont on l’a désigné dans des analyses antérieures, avant d’essayer un progrès nouveau dans une analyse difficile.

L’empirisme est majoritairement « génétique », « génétiste », donc représenté surtout par les doctrines citées précédemment (associationnisme préscientifique - Hume, Spencer, Wundt, Taine, béhaviorisme watsonien, conditionnement pavlovien et skinnérien).

L’antithèse nativiste caractéristique d’un empirisme fixiste (vs asso-ciatif) se découvre selon des champs, des applications et des formules variées chez des auteurs du XVIIe au XIXe siècle tels que Leibniz, Mach, James, Rabier, Platner, Lachelier, Bain, Bourdon, Dunan, Villey, Dur-kheim. On qualifie parfois aussi cette doctrine de perceptionnisme chez Reid et Hamilton.

Cette doctrine d’un réalisme naïf qui postule l’existence des choses comme une donnée immédiate indépendante de l’activité de l’esprit, fût-ce celle d’une simple dynamique associative, subsiste de nos jours à peu près telle quelle dans le modèle dit des affordances de Gibson (PPAF, 258). Ce n’est pas tout, le modèle théorique de cet empirisme nativiste non dynamique s’est déplacé dans la problématique moderne considérable attachée au terme de structuralisme.

L’empirisme nativiste doit être distingué de l’innéisme ou apriorisme tels qu’ils se présentent dans le rationalisme d’abord cartésien (« idées innées ») puis kantien, qui au contraire de l’empirisme même associatif, met l’accent sur la dynamique d’un sujet actif de la pensée. Cette notion d’une dynamique du sujet théorique et pratique, prenant ensuite corps dans la notion de la dialectique moderne, se poursuit à partir de Kant à travers les philosophies de l’histoire (Hegel, Marx), comme d’ailleurs d’une certaine manière originale dans la « dynamique » freudienne, ainsi que dans les conceptions des deux grands psychologues francophones Wallon et Piaget.

Toutes les formes essentiellement nord-américaines, parfois germaniques, de la psychologie moderne relèvent de l’empirisme, soit génétiste, soit naturaliste-structuraliste, sans synthèse entre elles, et c’est ce qui les distinguent essentiellement des vues des trois grands psychologues européens Freud (et ses disciples), Wallon et Piaget, bien plus marqués par le modèle d’origine franco-germanique (de Pascal à Hegel-Marx) d’une dialectique intrapsychique, et/ou dedans-dehors.

La Gestalttheorie (Köhler, Koffka), adversaire diamétral du béhaviorisme, se présente clai-rement comme une première forme de structuralisme en psychologie. Bien qu’opposés selon la thèse et l’antithèse, ces deux modèles sont les variétés d’un empirisme réaliste et naturaliste.

L’empirisme fixiste-structuraliste reprend à son compte les notions de facteur endogène, d’innéité, de disposition, de constitution, « nature », opposées à la série complémentaire des notions « génétiques » de facteur exogène, acquisition, [apprentissage] : événement, histoire, « nurture ». Comme je l’ai exposé dans un long chapitre sur « les modèles de la personnalité en psychologie » (GP2, 721-775), à peu près tous ces modèles, se conformant du reste à la polarité fondamentale introver-sion/extraversion, reflètent un dénominateur de base commun de nature héréditaire constitutionnaliste, englobant les deux termes psychologique de « caractère » et biologique de « tempérament ». Il en est ainsi des tempéraments médicaux de Galien, des typologies morpho-physio-psychologiques (Kretschmer 1921, Sheldon 1951), psychophysiolo-giques (Pavlov 1923), caractérologiques (Jung 1921, Rorschach 1921, Heymans et Wiersma 1925, Schneider 1937, Witkin 1959-1978, Rotter et Phares 1978), factorielles (Cattell 1946-1961, Eysenck 1957).

Quelles que soient leurs différences réciproques, les modèles respectifs de Freud, Wallon, Piaget mettent en jeu une interaction dialectique complexe : en premier lieu (Freud) de la constitution psychique et de l’histoire personnelle, soit des deux plans de la réalité, d’ordre psy-chique et événementielle, en deuxième lieu (Wallon) organisant une genèse de la personnalité à dynamique bio-psycho-sociologique, en troisième lieu une psychogenèse de l’intelligence à double vection endogène centrifuge (assimilation) et exogène centripète (accommodation). Ces trois modèles fondamentaux échappent de soi à l’enfermement qui confine le reste des autres modèles et théories en psychologie dans les deux formes génétique et fixiste empirisme naturaliste et chosiste.

7.4. La grammaire générative ou le moulin à paroles

Le structuralisme transformationnel introduit par Chomsky en linguistique, et qui a connu un assez long moment de célébrité avec un retentissement important sur les développements de la psycholinguistique, avant de s’effacer dans la décadence générale des sciences humaines et sociales, n’échappe pas, malgré le succès intellectuel de son opposition initiale au structuralisme synchronique de Saussure et des héritiers américains (Bloomfield, Troubetzkoy, Hjelmslev, Jakobson) tout autant qu’au modèle béhavioriste du langage proposé par Skinner, à cette quali-fication en termes d’empirisme naturaliste. Le paradoxe est que Chomsky, bien que possédant les outils pour dépasser en principe les limitations de l’empirisme, y demeure foncièrement et malgré lui attaché.

On proposera une analyse du modèle transformationnel de Chomsky à titre d’exemple de cette prégnance du paradigme empiriste en sciences humaines, et qui nous permettra en conclusion de mieux resituer la question du DSM dans la délimitation de ce champ épisté-mologique instituant une forme incoercible d’aliénation pour toute espèce de tentative de dépasser le prototype dialectique européen. Le modèle de la grammaire générative et celui de psychopathologie athéorique du DSM ont ceci de commun d’offrir deux exemplaires d’empirisme fixiste, innéiste, mais avec une différence de qualité épistémologique abyssale qui oppose l’excellence de l’un à la trivialité de l’autre, à peu près de la manière dont Spinoza dit que « le Chien, constellation céleste, et le chien animal aboyant » n’ont rien de commun que le nom qui les désigne (Éthique, 1, 16, scolie).

Par ailleurs, il ne nous échappera pas de ce point de vue que le grand succès de l’école structuraliste dans la culture française des années 70 à 80 n’a probablement pas eu d’autre fonction, échappant en grande partie à l’époque à la conscience de ses représentants, que de liquider le modèle hégélo-marxien de l’approche du réel, avec pour tout héritage les vestiges d’une philosophie tâtonnant dans le caravansérail confus de l’éthique, de l’esthétique et du politique, bricolant des gadgets à ramasser des suffrages dans l’espace médiatique, sans parler de la carence effarante, une fois bien enterrés les deux chiens crevés Hegel et Marx, de tout modèle possible d’une relève social-démocrate. Reste une population de malades potentiels que l’on soignera avec l’aide du DSM V.

Rappelons pour l’essentiel que Saussure envisage la langue comme l’ensemble systématique des conventions sociales nécessaires à la communication, à quoi s’oppose la parole, recouvrant la partie purement individuelle du langage (phonation, réalisation des règles, combinaison des signes). Définie comme une « somme d’empreintes déposées dans le cerveau », comme un « système de signes » ou comme un « principe de classification », la langue sera essentiellement, pour Saussure, un inventaire, une taxinomie d’éléments. Chaque élément (signe) est alors une valeur dont la nature, purement différentielle, ne se définit que par rapport à un ensemble d’autres valeurs corrélatives (métaphore des pièces du système monétaire). L’aspect créateur du langage est localisé dans la parole, acte individuel de sélection et d’actua-lisation, de production des combinaisons, d’où la conséquence que « la phrase... appartient à la parole, non à la langue » (Cours, p 172). Ainsi, pas de place, dans cette conception, pour une syntaxe, pour une théorie des principes de formation des phrases, du moins au niveau de l’étude de la langue, objet propre de la linguistique. La réaction de Chomsky à cette doctrine consiste d’abord à poser que le fait banal de « l’aspect créateur de l’utilisation du langage » implique le fonctionnement de la syntaxe au niveau du code lui-même, c’est-à-dire de la langue saisie comme « compétence ».

1. Le modèle syntagmatique : Chomsky rend hommage à Descartes d’avoir, le premier, mis en évidence trois propriétés essentielles du langage : l’être humain parle a) de façon novatrice ; b) indépendante de stimuli extérieurs et intérieurs ; c) cohérente et adéquate à la situation. Les deux traits a et b constituent, par leur énoncé même une réfutation frontale du dispositif béhavioriste.

La première propriété peut s’expliciter ainsi : une langue naturelle est un ensemble virtuellement infini de phrases de longueur virtuellement infinie, engendrées à partir d’un nombre d’éléments fini.

Cette liste finie d’éléments a pour nom grammaire. Celle-ci n’a pas seulement pour rôle de décrire, mais encore de produire tous et rien que les énoncés possibles dans la langue considérée. Une grammaire générative G est définie par la donnée d’un ensemble fini de symboles appelé alphabet et d’un ensemble fini de règles de production, ces règles permettant de produire à partir de l’alphabet un ensemble fini ou infini d’expressions, présentés comme une concaténation de symboles de l’alphabet.

Un modèle rudimentaire de cette thèse chomskyenne est celui que la linguistique américaine (Harwood, 1955) avait d’abord mis au point sous le nom d’analyse en constituants immédiats (modèle syn¬tagmatique). À chaque phrase est associé un arbre orienté (phrase-marker, tree diagram), formé d’une hiérarchie de nœuds, dont la dérivation s’opère au moyen de règles de réécriture. Chaque nœud de l’arbre correspond à un constituant : la racine de l’arbre représente le constituant le plus élevé et un nœud terminal un constituant ultime, c’est-à-dire l’un des éléments d’une catégorie de mots. Ce diagramme d’arbre, ou indicateur syntagmatique, met en évidence l’ensemble des règles qui ont permis de générer la phrase.

Ce modèle, selon Chomsky, n’est pas à rejeter (il sera intégré au niveau du « composant de base »), mais les contraintes en sont trop faibles. Il fonctionne assez bien tant que les éléments analysés sont contigus, mais ne permet pas de rendre compte d’une multitude de relations existant soit entre les éléments d’une même phrase (temps à auxiliaire : a regardé) soit entre des phrases différentes (relation actif/passif). De plus, il n’autorise pas l’interprétation de certaines phrases ambiguës (l’amour de Dieu). En fait, le modèle syntagmatique ne peut fonctionner que si l’on introduit à côté des règles de réécriture des règles de transformation ; la structure syntagmatique (structure profonde) doit se subordonner à la structure transformationnelle (structure de surface).

2. La grammaticalité : une grammaire générative doit fournir un moyen de relier les séquences sonores à des interprétations sémantiques ; toutefois, les règles doivent en être formulées de manière à produire des énoncés acceptables. La grammaire G d’une langue L sera un mécanisme engendrant toutes les suites grammaticales de L et aucune des suites agram-maticales.

Grammatical signifie « acceptable pour un locuteur indigène ». Le choix des règles appropriées s’effectue de manière à permettre la génération d’énoncés conformes à la « connaissance intuitive » que le locuteur naïf a de la langue. Chomsky est hostile à l’égard des procédés statistiques appliqués à l’analyse du corpus notamment par les tenants du « distribution-nalisme » (Hockett, 1955).

L’école distributionnaliste admet que la description des différents contex¬tes dans lesquels une unité peut apparaître est non seulement une condition néces¬saire, mais aussi une condition suffisante de la description de ces unités.

Une variété plus raffinée de cette méthodologie du contexte est représentée par le modèle markovien. Les unités linguistiques (phonèmes, monèmes) apparaissent avec des probabilités non seulement inégales, mais encore dépendantes. Pour une suite donnée d’états, on peut calculer les probabilités de transition de l’état i à l’état j en fonction de celles des états antérieurs i-1, i-2,..., i-n . D’où l’idée d’un « système à états finis » comme susceptible de rendre compte du fonction-nement de la langue. Un tel système fonctionne par étapes successives, de gauche à droite. Dans de telles conditions, il rend compte des structures avec récursivité à droite, mais non des structures avec récursivité à gauche, ni des constructions auto-enchâssées. Chomsky rejette alors le modèle markovien comme un modèle encore plus faible selon lui que la structure syntag-matique. D’autres types de machines (machine de Turing, automates abstraits à pile) vont alors constituer des représentations beaucoup plus satisfaisantes du fonctionnement linguistique.

Le rejet des méthodes distributionnelles et en général des modèles probabilistes ponctuels (à mémoire courte) entretient un rapport étroit, chez Chomsky, avec l’insistance sur la notion de grammaticalité. La con-naissance intuitive des structures grammaticales permet au locuteur de dominer des énoncés à structure complexe dont la longueur est, en droit, indéfinie. La méthodologie du contexte proche ne rend pas intelligible ce fait du survol grammatical.

La notion de « grammatical » ne peut pas être assimilée à celle de « doué de sens » ou « significatif ». La notion de phrase bien formée ne se confond pas avec celle de phrase interprétable. Le grammatical peut être significatif (1), mais aussi non-significatif (2) ; l’agrammatical peut être non-significatif (4), mais aussi significatif (3).
(1) Avez-vous un livre sur la musique moderne ?
(2) D’incolores idées vertes dorment furieusement.
(3) Lire-vous- un livre sur la musique moderne ?
(4) Furieusement dormir idées vert incolore.

Un problème difficile, abordé à un moment par Chomsky et finalement laissé en plan par lui a été, outre celui du rapport de la syntaxe à la sémantique, celui d’une théorie des degrés de grammaticalité.

3. Compétence et performance. La caractéristique la plus frappante des langues humaines est la capacité des locuteurs à émettre et/ou à recevoir un ensemble indéfini de phrases que pour la plupart, ils n’ont jamais prononcées ou entendues auparavant. Tout locuteur possède donc certaines aptitudes très spéciales qu’on peut appeler sa compétence linguistique. Elle représente le savoir implicite des sujets parlants. Plus précisément, la compétence désigne « la capacité qu’a le locuteur-auditeur idéal d’associer sons et sens on accord strict avec les règles de sa langue ». Ces règles, en nombre limité, consistent, du moins certaines, en pro¬cessus récursifs, c’est à dire susceptibles de s’appliquer un nombre indéfini de fois. La compétence fonctionne comme un mécanisme fini d’activité infinie. Proposition dont la teneur dépasse en soi l’épistémologie limitée propre à la limitation intrinsèque du schéma simpliste SR.

La performance est la manière dont la compétence linguistique est mise en œuvre dans des « actes de parole » concrets ; c’est l’actualisation ou la manifestation du système des règles dans une multitude d’énoncés effectifs, chaque fois différents. La performance n’est en général qu’un reflet indirect de la compétence. En effet, les « actes de parole » des sujets ne reflètent pas uniquement leur compétence lin¬guistique ; ils varient également en fonction d’un grand nombre d’autres facteurs (mémoire, attention, degré d’intérêt). Le « degré d’acceptabilité » variable des phrases (à ne pas confondre avec « degré de grammaticalité ») est fonction des circonstances de la performance.

La différence entre compétence et performance est celle entre ce qu’un organisme sait (de la langue) et ce qu’il en fait effectivement. Cette distinction recoupe la distinction langue-parole, mais avec de notables différences. Alors que Saussure conçoit le système comme un ensemble de valeurs-différences, définies uniquement par leurs relations mutuelles, Chomsky le conçoit comme un ensemble de règles récursives. Selon Chomsky, Saussure n’a pas su distinguer entre « la créativité qui change les règles », localisée dans la performance (la parole) et la « créativité gouvernée par des règles », tenant aux propriétés récursives de la compétence (la langue) (rule-changing/rule-governed creativity).

La grammaire, théorie des règles présidant au couplage du son et du sens, théorie des phrases, se présente par là-même comme un modèle de la compétence. Il semble que Chomsky ait considéré l’étude de la performance comme réservée à la psycholinguistique.

4. La grammaire : la structure d’une phrase, comme couple son-sens, doit pouvoir être décrite d’une part dans les termes d’une phonétique universelle, et d’autre part dans les termes d’une sémantique universelle. Les règles présidant au couplage sont décrites par la syntaxe qui assigne à chaque phrase une description structurale. La syntaxe occupe une position intermé-diaire entre la phonologie et la sémantique et bénéficie d’une priorité logique par rapport à celles-ci.

La syntaxe décrit le composant syntactique c’est-à-dire le système des règles qui engendrent les structures profondes (ce système est dit « composant de base »), associé au système des règles qui appliquent les structures profondes dans les structures de surface (ce système est dit « composant transformationnel »).

Les structures profondes consistent en séquences de formants, c’est-à-dire d’éléments syntaxiques minimaux. Ces séquences, sortes d’objets abstraits, neutres entre le son et le sens, seraient des « propositions élémentaires ». Le terme « proposition » souligne la réalité ambiguë, logico-linguistique, des structures profondes. Sur la base de « l’hypothèse selon laquelle les procès linguistiques et mentaux sont virtuellement identiques », on peut concevoir la structure profonde comme « le reflet des formes de la pensée » ; esquisse des articulations logiques du signifié, elle détermine l’interprétation sémantique.

La structure profonde ne peut recevoir directement d’interprétation phoné¬tiques ; elle doit pour cela subir, dans un autre système, un certain nombre de transformations dans un ordre imposé (les unes obligatoires, les autres facultatives) qui la convertissent en structure de surface ; celle-ci consiste dans un réarrangement superficiel d’unités et détermine l’interprétation phonétique. Structure profonde et structure de surface peuvent différer pour un même énoncé : la structure profonde d’une phrase, qui en véhicule le contenu sémantique, ne se révèle pas nécessairement au niveau de l’agencement da surface ; les relations logiques initiales des formants peuvent avoir été bouleversées par les transformations. II en résulte que deux phrases, de structures superficielles différentes, peuvent avoir même structure profonde ; et réciproquement qu’une même structure superficielle peut correspondre à deux structures profondes différentes (phrases ambiguës).

Le composant de base, qui engendre les structures profondes, comprend deux parties :
-  le lexique : ensemble d’entrées lexicales dont chacune comprend des traits phonologiques, des traits sémantiques et des traits syntactiques.
-  le composant catégoriel de la base, fonctionnent selon le modèle syntagmatique simple examiné ci-dessus. À chaque proposition élémentaire est associé un indica¬teur syntagmatique de base (base-phrase-marker), exprimé sous forme de diagramme d’arbre ou de paren-thétisation étiquetée (comme en logique). La propriété récursive de la grammaire, qui permet l’usage infini de moyens finis, appartient en propre au composant catégoriel.

Rien n’oblige a priori que les structures profondes soient transformées en structures de surface : un tel modèle n’est guère économique. En fait, les trans¬formations auraient un « effet filtrant » sur les structures profondes mal formées ; elles permettraient, de plus, de réduire les charges imposées à la mémoire à court terme. Les transformations auraient donc pour rôle de faciliter la performance.

5. Un schématisme inné : il se peut, suppose Chomsky, que les structures profondes varient peu d’une langue à l’autre, d’où le projet d’une grammaire universelle qui dégagerait les universaux propres au fonctionnement linguistique. Alors serait écartée l’hypothèse béhavioriste de l’apprentissage du langage par acquisition progressive, condition-nement renforcé, etc.

Se pose la question de l’innéisme chomskien : la grammaire serait acquise « par la simple différenciation d’un schéma fixe inné ». L’enfant acquiert la grammaire générative de sa langue en se fondant sur une quantité de données assez limitée et en un temps relativement court, pendant lequel la capacité d’acquisition linguistique fonctionne de manière optimale. La théorie behavioriste revient à exiger de l’enfant « un exploit inductif apparemment insurmontable ». En fait, « le locuteur d’une langue sait beaucoup de choses qu’il n’a pas apprises » (Linguistique Cartésienne, p 96).

6. Un certain de problèmes épistémologiques se proposent d’emblée.
a) Sur la question de l’innéisme, Piaget fera à Chomsky la réponse suivante (Le structuralisme, Q.S.J. n° 1311, pp 63-82) : « II y a en réalité trois solutions à choix et non pas deux : il y a bien l’hérédité [Chomsky] ou les acquisitions extérieures [Skinner], mais il y a aussi les processus d’équilibration interne ou d’autorégulation » (p 76).
b) Le composant syntactique est le niveau fondamental puisque ce sont les règles syntactiques qui, en définitive, assurent le couplage entre le niveau phonétique et le niveau sémantique. Or comment une syntaxe purement formelle peut-elle assurer un rôle médiateur entre son et sens ? La médiation ne doit-elle pas posséder les pro¬priétés des termes qu’elle est censée relier ? C’est le vieux problème du schématisme kantien, intermédiaire entre le niveau catégoriel profond et le niveau sensoriel de surface.

Or on voit que l’élément lexical qui contribue avec le composant catégoriel à engendrer les structures profondes comprend, en plus de l’élément médiateur, les deux éléments que la syntaxe est censée médiatiser (traits syntactiques, traits sémantiques, traits phonologiques). Le système syntactique ne ferait que coupler des termes qu’il contient déjà. Mais si les termes couplés sont présupposés (et déjà couplés) dans le principe qui assure le couplage, peut-on parler de grammaire générative ? Il s’agit du type de procédure par cercle vicieux, ou encore prophétie auto-réalisatrice où le terme de la démarche est posé d’emblée dès le début, ainsi que dans les tours de prestidigitation : le lapin est déjà caché dans le chapeau.

Conclusion : le modèle chomskien paraissait bien à l’époque apporter une contribution très féconde à la psychologie du langage : beaucoup de travaux en psycholinguistique se sont alors efforcés de vérifier en tirailleurs dispersés partout dans la campagne les hypothèses chomskiennes. Cependant, les limitations en sont vite apparues en ce que ce modèle d’un niveau spéculatif extrêmement brillant, du fait de demeurer attaché à un niveau de construction empiriste de caractère naturaliste et chosiste, comportait un aspect de mécanique logique, de dispositif purement externe, qui le rendait incapable de produire la moindre notion d’un sujet agissant capable d’habiter cette machine. Pourtant, l’aspect synthétique et intégratif de cette production l’emportait de loin sur la dimension d’analyse purement factuelle qui avait caractérisé l’esprit des modèles antécédents. En réalité, le modèle reste une sorte de machine, même doté d’une incontestable principe d’efficience dynamique, de capacité de productivité indéfinie, même en un cadre de contraintes rigoureuses, en définitive dans l’esprit d’une forme de synthèse entre les deux formes d’empirisme, nativiste et génétiste, statique et dynamique.

Rien de tel avec le DSM, qui se tient à l’égard d’une architecture aussi intéressante et aussi audacieuse, à peu près comme le canard boiteux trébuchant dans la basse-cour tout en se tirant le col en direction de l’albatros. Mais quelque y demeure de l’innéisme chomskien, ainsi d’ailleurs que dans tout un courant de la génétique moléculaire et de la psychologie qui s’en inspire, en particulier la psychologie développementale, dans sa tendance aujourd’hui dominante de mettre en évidence de soi-disant compétences natives du très jeune enfant, en minimisant à l’extrême, dans un esprit opposé à celui de l’ancien béhaviorisme, le rôle de l’apprentissage (Mehler et Dupoux, in PPAF, 415-430). Or cette tendance spontanée vers l’innéisme, conforme à ce que l’on appelé plus haut l’empirisme nativiste, fixiste, structuraliste, - ajoutons : statique, synchronique, descriptif, phénoménologique -, en tout cas à tendance constitutionnaliste est bien la même que celle pointée plus haut par le Manifiesto de Barcelone : la passion d’identifier des causes fixées en faux positifs dans un ordre des choses : « Toute manifestation de mal-être sera rapidement convertie en symptôme de « trouble mental » qui nécessitera une médicalisation à vie. » The man is born, is not built, disent-ils aujourd’hui contrairement à Watson qui lui, affirmait en renversant les termes : The man is built, is not born. Telles sont la thèse et l’antithèse, mais toujours dans le même cadre monotone de l’empirisme nord-américain.

Le modèle de la grammaire générative et celui de la nouvelle médecine mentale ont en commun la même tendance à faire marche arrière, « inversion de sens complète » (Piaget, 1968, 70) à l’égard de la perspective antérieure sur le même champ de phénomènes. Alors que le positivisme logique de Bloomfield, cousin germain du béhaviorisme linguistique de Skinner, voulait réduire les mathématiques et la logique à la linguistique, et toute la vie mentale à la parole [c’est aussi le cas de Lacan], la nouvelle linguistique structuraliste dérive la grammaire de la logique, et le langage d’une vie mentale orientée par la raison [Idée par ailleurs d’un Piaget]. De façon comparable, alors que la psychopathologie clinique des années 70-90 interprétait tout un secteur de la médecine somatique (hystérie, psychosomatique) à partir de la pathologie mentale, à l’inverse le système DSM tend à réduire le champ entier de la pathologie mentale au plan monotone de la médecine organique. Rien ne sera à terme à l’histoire individuelle du sujet. Ce qui est aussi la tendance évidente d’une certaine forme nouvelle d’administration moderne de la justice.

Malgré une considérable différence d’allure dans la démarche intellectuelle, les deux modèles empiristes de Chomsky et du DSM ont en commun le double défaut dont on a signalé qu’il tombe sous le coup de ce que nous avons appelé ailleurs à plusieurs reprises les critiques K1 et K3 (CRP, PP1) : la catégorisation arbitraire et abusive aboutissant à générer de faux positifs par introjection du réel observé en pur et simple possible, en chose mentale vide (K1), première procédure vicieuse complétée, comme presque toujours, par le vice complémentaire consistant dans la prophétie auto-réalisatrice (K3, évoquée ci-dessus), via la projection d’un possible de texture imaginée dans un réel inventé lui convenant, soit encore d’une hypothèse fantasmée dans un résultat pré-adapté ad hoc.

L’ensemble de cette double procédure vicieuse n’est rien d’autre que la caricature du cheminement de la pensée savante appliquée à la maîtrise de l’expérience, telle qu’il est décrit dans le grand texte fondateur du Discours de la méthode par les deux termes d’analyse et de synthèse, la première produisant l’hypothèse, la catégorie, le modèle, l’autre leur retour à l’expérience, à la justification, au résultat, et la coopération de leur mouvement répété produisant la spirale amplifiante du savoir.

Par ailleurs, on voit clairement quelle est la fonction pratique et politique du primat de l’analyse sur la synthèse, qui fait l’objet de la recommandation principale de l’épistémologie spontanée propre à l’empirisme nord-américain : son effet est d’engendrer le morcellement destructeur de l’intelligence, la soumission insidieuse de l’esprit, obnubilé avec ravissement par la montagne des petits détails, en un mot de générer la sottise dans la discipline, ou l’imbécillité dans le conformité, le fourmillement des insectes dans la Tour de Babel, procédé adroit qui a toujours été l’un des grands recettes de l’assujettissement des foules au pouvoir de l’élite, dont la ruse bien affûtée n’exclut pas une cynique inculture.

Prenez l’un de ces Manuels d’Histoire en usage dans le système scolaire moderne, en le comparant à ceux qui se faisaient voici 70 ans (l’incomparable Malet-Isaac) : tout y est organisé pour rendre impossible le processus de synthèse mentale, au prétexte implicite évidemment honnête de laisser les questions …ouvertes. Tout est organisé en vue de la décérébration, de la lobotomisation du futur citoyen : désinformation organisée, et dissimulée sous le leurre des méthodes actives. Le rat s’affaire à fouiner dans les recoins du labyrinthe. Ainsi chaque grande période historique (Athènes, Rome, Israël) sera divisée en une séquence de scénarios disparates, en grands tableaux-spectacles dont on s’efforcera même de couper les liens naturels réciproques. Chacune de ces perspectives propose, sur papier glacé en large format, un texte avare investi d’une décoration luxuriante, faite pour distraire de l’excès d’ennui censé produit par la concentration trop prolongée sur un contenu littéral indigent, et somme toute secondaire. C’est l’image, le tableau toujours qui guidera la saisie de l’écrit. Un matériel d’exercices y est joint, sur le livre et hors du livre, dont les solutions supposent une forme de chasse de Pan en zigzag à travers plusieurs pages de textes, impliquant, à partir de bribes glanées au hasard de la chance dans les fourrés, la clef de devinettes et le remplissement de zones de pointillés, comme dans les tests d’intelligence américains.

Tout ce que nous avons développé dans cette apparence de digression à l’égard de notre objet principal nous permet par ailleurs de bien comprendre un thème que nous avons déjà eu l’occasion de commenter touchant la pensée de Politzer : l’échec répété de la psychologie dès ses origines les plus anciennes jusqu’à l’époque moderne (PP1, chapitres 4 à 6). Nous en aurions touché du doigt l’un des secrets ici, dans ce qui vient d’être dit, secret caché dans la répétition incessante d’une démarche installant, à l’encontre de toute perspective rationaliste, un empirisme de la passivité - dans la chasse de Pan courant après le petit détail factuel -, comme seul espace où trouver le principe d’une dynamique de la subjectivité, ce qui est par principe impossible, un sujet issu de l’expérience ne pouvant avoir l’initiative d’organiser l’expérience. C’est pourquoi Politzer en tirait la conclusion en 1928 que la psychanalyse avait été d’après lui la seule psychologie concrète et positive à être jamais apparue depuis Aristote.

Certaines remarques récentes faites par des lecteurs m’amènent à prendre en compte l’intérêt de poursuivre cette digression du côté d’un arrière-fond philosophique, incontestablement présent de manière latente derrière cet empirisme nord-américain. Cette dernière locution n’est présente dans aucune histoire classique de la philosophie parmi les plus récentes et touchant à cette période (Histoire de la philosophie, Pléiade, Gallimard, 3, 501-525, 750-795). Je l’ai utilisée comme une formulation plausible et commode pour désigner une certaine forme de mentalité repérable sans discussion ni ambiguïté dans le champ contemporain des disciplines psychologiques (sauf les européens Freud, Wallon, Piaget), d’un courant majoritaire des neurosciences (chosisme naïf d’une certaine présentation des résultats de l’imagerie cérébrale), et aussi du type de modélisation aujourd’hui ordinaire des sciences biomédicales (EBM-DSM).

7.5. Le positivisme logique : une « science » de l’observation et de la mesure

L’arrière-fond philosophique de cet empirisme matérialiste nord-américain est à rechercher dans les sources européennes anciennes de l’empirisme et de matérialisme, qui du reste ne se confondent pas toujours. Les matérialistes sont toujours empiristes (Hobbes, Gassendi, Diderot), mais l’inverse n’est pas vrai (Hume, Berkeley, Condillac). Mais laissons cela : on pourra se référer à nos développements antérieurs sur les antécédents historiques de la psychologie et de la psychanalyse (La guerre de la psychanalyse, tome 1, chapitres 5 à 8 ; Psychanalyse et psychologie, tome 1, chapitre 7). Prenons les choses telles qu’elles se passent dans la période 1920-1970 environ initialement en Autriche mais surtout en Angleterre, et par répercussion secondaire et amplifiante aux USA avec de nos jours une prétention croissante urbi et orbi. On se trouve alors devant les deux bêtes intéressantes que constituent l’empirisme logique et la philosophie analytique, qui développent de manière plus fondamentale le même fond d’idées que cet empirisme vulgaire et de sens commun dont il a été plus haut question.

On trouve alors B. Russell (œuvres : 1905-1956), G. E. Moore (id. : 1922-1959), A. J. Ayer (id. : 1936-1971), L. Wittgenstein (id. : 1922-1958), G. Ryle (id. : 1949-1971).

Les anglais Russell et Moore se prononcent pour l’antisubjectivisme. C’est l’apparence grammaticale du langage qui serait la véritable cause des pièges et erreurs d’ordre philosophique. Le réalisme matérialiste de la perception comme source de la connaissance condamne le subjectivisme des idéalistes (new realism). Puis le « positivisme logique » proprement dit est d’abord développé par le viennois Ayer (1936), condamnant explicitement la métaphysique. Une expression linguistique n’a de sens que si elle est formulable par la logique mathématique et vérifiable par une expérience des sens. Pourtant le collègue de Russell Whitehead souhaite conserver Dieu, alors que celui-ci était plutôt marxiste.

Russell et Moore sont hostiles au monisme absolutiste et au rationalisme philosophique, idéologie liée selon eux à la logique classique du type sujet-prédicat. Ils défendent la perspective d’un empirisme pluraliste. N’existent qu’une forêt de vérités de fait contingentes. Logique et mathématique se confondent, excluant toute forme de transcendance du sujet et ouvrant à un atomisme logique : des propositions élémentaires (p, q, r…) mises en relations par des symboles (U, ∩, →, ↔). Tous deux tiennent au « sens robuste de la réalité », et défendent la vision vraie du sens commun propre à la perception de notre monde quotidien. L’analyse du langage ordinaire peut seule élucider les problèmes posés par la philosophie.

Wittgenstein, autrichien émigré en Angleterre, élève de Russell, soutient que la connaissance ne peut progresser que grâce aux méthodes des sciences de la nature (idée due d’abord au physicien autrichien Ernst Mach), au-delà de quoi nous ne pouvons rien savoir. Ce qui exclut toute philosophie, si l’on souhaite ne rien dire que ce qui peut être dit. Le monde est une totalité non de choses, mais de faits contingents, simples ou complexes. Leurs relations logiques - tautologiques ou contradictoires - ne signifient réellement rien (Hume). Nous ne pouvons savoir pourquoi le monde existe, pas plus que le sens de la vie. Sur la base du même atomisme logique et scientifique, Russell reste à la fois phénoméniste et matérialiste, cependant que son collègue proche Wittgenstein tend vers un irrationalisme mystique, déclarant en particulier « l’éthique simplement inexprimable ».

Les plus subtils des auteurs anglais, jamais les nord-américains, ont conscience des difficultés liées à ces doctrines et qui les poussent vers le scepticisme intégral, renversement du réalisme naturaliste et dogmatique. L’interprétation tautologique de la logique qui la réduit au type du jugement analytique, peut-on leur objecter, est discutable d’un point de vue constructiviste y introduisant l’opérativité synthétique a priori (Kant), autrement dit le mécanisme de l’abstraction amplifiante (Piaget). Il est tout aussi impossible de remonter dans la passé que d’atteindre les limites de l’espace (Ayer 1936). Le principe de vérification, se disent-ils encore, est lui-même difficile à vérifier. Rejeter la philosophie, c’est en faire autant de la science, et préserver la science, c’est laisser revenir la métaphysique (J. A. Passmore, 1957).

Par ailleurs, le positivisme logique défend une théorie émotionnelle des jugements d’ordre éthique et esthétique (Ayer). Tout en cherchant aussi et de façon contradictoire à défendre le caractère objectif du bien et du mal (Moore 1912). Les jugements éthiques ont une « signification émotionnelle » mais tendant à la persuasion et à l’incitation d’autrui en vue de l’action dans le même sens (Stevenson 1944). Moralité et propagande tendent alors à se rejoindre, de façon comme dérisoire. Le préjugé de ne considérer comme rationnel que ce qui a trait à la vérité tend d’un autre côté à faire apparaître l’éthique comme fondamentalement irrationnelle. Ce qui rendra difficile dans les années 30 l’opposition de ces auteurs à l’irrationalisme du fascisme.

Les plus intelligents des représentants de ce positivisme logique, comme Whitehead, ressentent le « caractère sec et de faible portée » de ses résultats, ceux d’une doctrine de « tâcherons » crispés sur les embûches de la logique et la méthodologie des sciences particulières. Le rôle du philosophe - conception d’une subtilité toute britannique rappelant le Kant de l’Aufklärung - devrait être de « favoriser l’évolution de la société » par « la critique des abstractions », de faire usage de la conscience en vue de corriger les « excès d’une subjectivité congénitale ».

Plus récemment, l’anglais Popper (1945) rejette la doctrine de Marx, au prétexte essentiel qu’il n’est pas possible de prédire l’avenir de l’humanité. Ce qui ne représente peut-être pas l’apport capital de la doctrine économique de Marx. La société et la science progressent l’une et l’autre, soutient-il encore, en réduisant peu à peu le champ de l’erreur, plutôt qu’en essayant d’imposer la perfection par un changement radical. Prise de parti idéologique bien propre à rassurer la modération conservatrice souhaitée par les sociétés anglo-américaines.

Ryle (1949) soutient un « béhaviorisme linguistique » qui lui fait considérer le dualisme cartésien corps-esprit comme la conséquence d’une « erreur catégorielle », dont le principe consiste à introduire la duplication d’un esprit-substance comme « un fantôme dans une machi-ne ». C’était déjà l’idée de Watson sous un schéma plus rustique (stimulus-réponse) en 1913.

Les théories plus récentes de la « philosophie de l’esprit » introduisent cette dénomination paradoxale dans un espace nouveau marqué justement par l’évacuation de toute dimension de l’esprit, l’accent essentiel étant mis, par une rhétorique sociale invigorative et superficielle (Austin, 1946), sur « l’acte de communiquer », « notre adhésion aux autres et nos convictions en matière d’autorité et de témoignage ». Sans jamais non plus mettre en doute le fait que « le monde n’est pas si éloigné de la vision que nous présente le langage ordinaire » (H. B. Acton, 1974).

J’ai déjà parlé de cette philosophie de l’esprit dans la Critique de la raison en psychologie (Chap. 12 : Dennett, Davidson, Parfit), de même que de ses applications qui sont à la mode dans les formes post-piagétiennes de la psychologie de l’enfant (ibid., chap. 6 et 7 ; La psychanalyse et la psychologie aujourd’hui en France, ch. 14), et je n’y pas reviens pas encore à nouveau ici.

7.6. La philosophie analytique : le vide de la parole correcte

La philosophie analytique représente, dans la tradition assez fidèle au courant précédent du positivisme logique, un développement un peu plus récent inscrit dans la période 1946-1970. Elle se présente comme « une démarche tâtonnante et orientée dans plusieurs directions à la fois ». L’influence de Wittgenstein y est toujours prépondérante. R. Carnap (1950), américain d’origine allemande, est un auteur qui est passé progressivement du néopositivisme logique à la nouvelle philosophie analytique. Un nouvel auteur important dans cette perspective nouvelle est, outre Ryle déjà cité, P. F. Strawson (œuvres : 1963-1971).

La philosophie analytique se réfère aux champs privilégiés de la linguistique et de la logique formelle, dont elle s’attache d’abord à critiquer pour cette dernière l’absence de résultats. Ces deux points formant nouveauté à l’égard du positivisme logique. La logique ne saurait donc servir de critère universel. Elle a le défaut de traiter les propositions qui échappent à ses lois de formation comme mal formées. Les philosophes néopositivistes ont aussi le tort de tomber dans le réductionnisme en traitant les propositions éthiques et autres jugements de valeur comme dénués de sens.

On reproche à la plupart de ces auteurs du nouveau courant de la philosophie analytique d’éviter de s’expliquer sur la théorie de leur méthode ou technique, quitte à confondre cette technique avec l’objet de leur démarche. D’après ma propre expérience, c’est dans de pareils cas que le souci pour la méthode cache la carence de tout objet. J’ai toujours vu cela dans l’enseignement des disciplines psychologiques à la Sorbonne entre les années 70 et 90, avec l’impossibilité totale, passionnelle, de s’expliquer sur ce point obscur. Agenouille-toi et crois ! À genoux devant la méthode, et tu verras l’objet. Il y a peut-être ce penchant inconscient dans toute forme de « discours de la méthode ».

La philosophie analytique se présente souvent comme une phi-losophie du langage, mais avec l’ambiguïté du double génitif, du sujet ou de l’objet. Une méthode d’ « analyse linguistique », dont on ne sait pas toujours très bien si elle applique une technique linguistique à la philosophie ou si elle se propose comme une théorie philosophique du langage. On y a vu se développer un grand intérêt pour les questions nouvelles de la sémantique (Katz 1966) et de la pragmatique (Austin 1962, Searle 1969). Cependant, le caractère spécifiquement philosophique de la méthode analytique tiendrait aussi à ce qu’elle prétend porter en droit sur n’importe quel objet. Elle tend même à se définir parfois comme une « analyse des concepts » ou « analyse conceptuelle » (conceptual analysis). Face à un problème philosophique au sens traditionnel, l’analyste « refuse en général d’y répondre par oui ou par non », ce qui est, « même avec des moyens nouveaux », une attitude non tout à fait dépourvue de précédent dans l’histoire des idées (Socrate, Descartes, Hegel, Husserl). L’analyse en général consiste à confronter deux sortes de notions de manière à marquer tant leurs différences que leurs similitudes. Les différences sont-elles superficielles ou profondes ? Par exemple on dira que les jugements de valeur du discours éthique ou pratique ne sont pas du tout des descriptions d’ordre assertorique propre au discours théorique. Ce qui permet de dépasser l’antinomie liée au fait que leur objet existe ou n’existe pas. L’usage assertorique (ou descriptif) du langage n’est que l’un parmi beaucoup d’autres. Sous ce jour, « le discours pratique est autre chose que le discours théorique [ce qui semble redondant par rapport à ca que Kant soutenait déjà deux siècles avant].

Une critique positive gardera des théories anciennes tout ce qu’elles ont de correct et uniquement cela, en modifiant au lieu de remplacer. Mais, dirons-nous, c’est déjà la technique germanique de Leibniz, Kant et Hegel. Leibniz disait que les doctrines anciennes ont tort en ce qu’elles nient, et raison en ce qu’elles affirment. Le prédécesseur ne doit être traité « ni comme un adversaire qui aurait dit des choses fausses, ni comme un précurseur qui aurait mal vu des choses justes, mais bien comme l’auteur de découvertes qui doivent être approfondies aujourd’hui » (Strawson à propos de Kant justement, 1966).

L’ensemble de cette démarche n’est pas sans évoquer une sorte de mélange de néokantisme et de phénoménologie husserlienne à la sauce britannique. Ces auteurs opèrent un retour en arrière vers un moment dépassé de la culture européenne continentale, ce qui représente un avatar très fréquent dans la récente histoire des idées anglo-américaine. On retourne au début du XIXe siècle aux idées du matérialisme de Cabanis, à la phrénologie de Gall. Les américains font fréquemment cela sans que leurs lecteurs s’en aperçoivent toujours.

L’ « analyse » tend à montrer que les doctrines antérieures ont le tort d’ériger un cas particulier en cas général, et qu’ « on obtient une théorie plus satisfaisante si l’on respecte mieux l’importance relative des notions considérées [EJ : donc par dépassement dialectique de type plutôt kantien, sans que le mot soit dit ?] ».

Il arrive que des concepts puissent être envisagés en un sens « absolu » et en un autre sens « naturel » (existence - Dieu existe, il existe un nombre tel que…, impératifs catégorique et hypothétique - on doit, il faut si…).

Le gros effort de la philosophie analytique semble par ailleurs être de dépasser l’analyse réductrice propre à la période précédente vers « l’analyse neutre ». Strawson parle de « métaphysique descriptive » (1959), ce qui évoque « le retour aux choses mêmes » de Husserl. De ce point de vue, certaines critiques récentes reprochent à la philosophie analytique « de ne rien apporter de positif », ce qui serait même « un travers sociologique et idéologique de l’école anglo-saxonne. » (Gellner 1959, Mundle 1970,). Wittgenstein disait déjà (1953) que la philosophie aurait désormais à ne plus « construire aucune théorie », à remplacer partout l’explication par la description, à « laisser toutes choses en l’état », etc. Il semble y avoir un paradoxe, de la part des analystes actuels comme de Wittgenstein, à continuer de pratiquer la philosophie tout en lui refusant une quelconque valeur théorique. La nouvelle manière de philosopher propre à la neutralité analytique consiste à prendre du recul par rapport aux diverses thèses en présence dans les débats philosophiques ? Mais répétons que le Kant de l’Antinomie transcendantale le fait déjà.

La technique de Ryle consiste souvent à montrer que bien des problèmes classiques sont mal posés en ce qu’ils reposent sur des dilemmes vicieux. On l’accuse également, de même que Wittgenstein, à décrire ce que sont les choses en les réduisant à ce qu’elles « font », de retourner au béhaviorisme. Ainsi quand il dit que la pensée est une « manière d’agir » [Piaget dit qu’elle dérive de l’action, ce qui n’est pas la même chose].

Ce courant de la philosophie analytique tend à se rapprocher de l’idéal d’une méthode permettant à la fois la découverte de faits nouveaux et un meilleur consensus entre philosophes. Ce dont on reparlera, comme de la neutralité, à propos de l’affaire du DSM.

7.7. Le règne animal de l’esprit

On voit bien, au terme de cette excursion dans les deux moments principaux et consécutifs de la philosophie anglaise du XXe siècle : le positivisme logique et la philosophie analytique, quelles sont les parentés essentielles en même temps que les différences profondes avec ce que nous avons appelé l’empirisme nord-américain.

L’idée que les connaissances essentielles viennent des sciences de nature, et que par conséquent la « science de l’esprit » doit leur être réduite. Encore la méthode de la « science de la nature » est-elle interprétée comme la conjonction de l’observation d’un fait perceptif avec une mesure logico-mathématique de simple convenance, dans le cadre d’une logique réduite au modèle affaibli de la seule tautologie analytique. L’usage courant de la statistique comme outil de mesure en sciences humaines convient tout à fait à une telle conception. Ce thème d’un réductionnisme barbare est congruent avec celui, développé par Ryle, de la dénégation de l’esprit comme « fantôme dans la machine ». C’est tout fait le genre de philosophie qui convenait au béhaviorisme de Watson, Hull, Skinner, et même à leurs successeurs cognitivistes d’après 1956, qui n’ont jamais soupçonné qu’elle pût exister à leur service. En fait, elle est là, agissant partout, par diffusion dans le tissu culturel de la mentalité nord-américaine, même dans l’ignorance où ses acteurs se trouvent de savoir qui sont Russell, Moore, Ayer, Wittgenstein et Ryle.

L’idée que la philosophie doit disparaître, remplacée par la science, et que les principales difficultés qui surgissent tiennent moins aux objets sur lesquels il ne peut y avoir de discussion essentielle (les corps matériels des divers ordres dont le corps-machine propre à l’être humain) que dans des difficultés de compréhension et de communication tenant au langage. Et qu’il est possible que l’on puisse les surmonter, après analyse des propositions, vers la création d’une sorte de langue automatique universelle, du genre de celle dont Leibniz rêvait, et dont l’actuel « DSM language » n’est qu’une misérable et babélienne approximation, comparable à ce que Spinoza dit du rapport d’analogie entre le Chien constellation céleste et le cabot galeux aboyant dans la rue.

L’idée d’un savoir de type atomique et analytique, portant sur des propositions de fait contingentes, avec aussi peu de lien que possibles entre les secteurs et domaines (Russell, Wittgenstein). La multiplication des catégories présentée comme l’antidote appropriée au monisme rationaliste et au subjectivisme centralisateur. De la sorte, le système EBM-DSM se présente comme un véritable bazar fait pour engendrer le désordre dans un esprit formé selon le canon ordinaire d’ordre hiérarchisé et de progression réglée propre à la tradition des disciplines de l’humanisme continental.

L’idée d’une neutralité théorique, mais avec des différences très importantes chez les praticiens du scientisme de type nord-américain, pour qui elle n’est que le passeport d’un matérialisme biologique vulgaire, et chez les distingués philosophes de sa Majesté Britannique, préoccupés d’une méthodologie de comparaison dialectique - le mot doit être dit bien qu’il ne leur plaise pas - du pointage à bonne distance des ressemblances et des différences entre les couples de notions ou de doctrines d’apparence opposée.

Le contraste entre l’objectivisme marmoréen d’une scientificité s’attachant à évincer toute forme d’adhérences subjectives - l’antihumanisme althussérien -, et une éthique de style émotiviste requérant le crédit (belief), l’adhésion, la persuasion, le suffrage, la quête démagogique de l’approbation collective. L’un servant de masque pour refouler l’autre. Cet objectivisme désincarné cachant une passion dangereuse, celle d’un évangélisme de la science expansif jusqu’à l’intolérance, mobilisé par la tolérance zéro des différences culturelles. C’est cela que cache le prétexte à la facilitation de la communication internationale invoqué par le modèle babélien de l’EBM-DSM.

L’idée d’un consensus dans la communication touchant un corps doctrinal dit neutre peut être mise en œuvre dans un style de pratique intellectuelle et sociale très différent selon qu’il s’agit du détachement et d’une certaine forme de désinvolture britanniques ou de l’engagement bien plus conquérant et moins tolérant de l’impérialisme idéologique américain. La dimension critique de caractère anglo-germanique (Hume-Kant, les Windsor sont des Saxe-Cobourg) manque totalement à la mentalité interventionniste du paradigme AEIOU (Americae est imperare orbi universo).

En fait, cette philosophie anglo-américaine s’avère, comme toutes les formes connues de l’empirisme, à de très rares exceptions près (Hume) d’une grande platitude, quelle que soit la célébrité de certains des noms qui l’ont illustré. Il me souvient de l’aura de Wittgenstein, lorsque j’étais encore jeune professeur de philosophie, et du caractère prometteur d’un grand titre comme Tractatus philosophicus, livre dont les premières pages feuilletées livraient des aphorismes d’un style aussi éblouissant qu’hermétique, et promesse d’une grande aventure vers on ne savait quelles mers du Sud après la vogue lassante des Husserl et Heidegger dans les années 60. Par la suite, quelle déconvenue, de voir ces gens qui après avoir manqué l’héritage de Hume avec le grand tournant de la philosophie critique et romantique « Von Kant bis Hegel », plus Marx plus Freud qui en sont en définitive issus, reviennent en marche arrière vers une espèce de criticisme para-kantien. Lacan avait clairement vu qu’il convenait d’aller rechercher les sources de Freud en particulier du côté de Hegel revu par Kojève, en même temps qu’il a toujours rejeté sans réserve la nullité intellectuelle abyssale de l’american way of thinking. Étant entendu par ailleurs tout de même que le style britannique est sensiblement détérioré par sa reprise nord-américaine - Harvard n’a jamais été Oxford ni ne le sera jamais - mais que l’imitation de celle-ci par la servilité française, quand elle s’y met, est encore ce qu’il y a de pire.

Et quoi qu’on en dise et qu’on en veuille, nous voilà quand même en France aujourd’hui emporté dans ce mouvement aussi rétrograde que conservateur. La philosophie anglo-américaine, malgré la grande faiblesse de son contenu conceptuel, appartient à une mouvance encore contestée mais en ascendance irrésistible dans la crise généralisée de la culture française et européenne, comme en atteste l’élection toute récente comme Professeur au Collège de France, dans une chaire de métaphysique et de philosophie de la connaissance, de Claudine Tiercelin, disciple de Jacques Bouveresse et épouse de Pascal Engel, tous trois spécialistes de la philosophie atlantique en question. Élection du reste à mettre en rapport également avec celle, voici quelques années déjà, du mathématicien Dehaene dans une chaire de psychologie cognitive expérimentale. Le collègue Claude Hagège déclare percevoir dans une telle élection « un symptôme certain de notre américanisation », cependant qu’un Alain Badiou y voit pour sa part « le résultat de vingt-cinq années d’abaissement qui auront abouti à faire de l’institution où enseignèrent Barthes et Foucault « une sous-préfecture attardée de la philosophie analytique américaine, favorisant le consensus conservateur au détriment du contemporain novateur » ». (Aude Lancelin, Nouvel Observateur n° 2431 du 9-15/6/2011, pp. 101-103).

On nous dit encore dans le même article que « Michel Foucault ne serait plus élu aujourd’hui, ni Pierre Bourdieu », peut-être pas même Bergson, Merleau-Ponty, Aron, Lévi-Strauss. La candidature de Derrida y avait été évoquée naguère comme celle d’un « astrologue ». Élisabeth Roudinesco regrette pour sa part que n’en soit pas Alain Corbin ( ?), Michelle Perrot ( ?), Rancière, Jean-Claude Milner (…), ni Badiou (d’accord…). À propos de la posture comme du ton des nouveaux philosophes analystes de genre français, un enseignant de l’École Normale déclarerait : « Parfois, quand je les entends, j’ai l’im¬pression d’assister à un conseil d’admi-nistration où un nouveau manager vous bombarderait de termes anglais… Russell, Popper, on pensait que c’était ça la philosophie analytique. Ce que représente quelqu’un comme Mme Tier-celin, c’est encore autre chose : des problèmes hyper pointus, exprimés dans un jargon très intérieur. C’est une philosophie qui se veut argumentative mais avec laquelle il est très difficile d’argumenter. »

La notion d’un pluralisme atomique de la vérité de fait contingente ouvrait évidemment de soi la philosophie anglo-américaine au pragmatisme d’un William James (1907), sans qu’une telle doctrine ait besoin de se trouver explicitement sous la plume de ces auteurs férus de logique et de linguistique. Mais dès longtemps l’utilitarisme de Bentham côtoyait l’empirisme associationniste de James et Stuart Mill. La vérité, c’est l’utile à la cité (Protagoras), comme aux contraintes de la techno-science ainsi qu’à la circulation de l’économie monétaire et commerciale. Vérités des mensonges d’État également. Cela s’est défendu et se défend toujours (Machiavel…). Mais en ce point douteux de ralliement que propose le commerce, voici qu’accourent aussi les opportunités et les camelotages, glissant par transition vers l’imposture et la carambouille, comme dans plusieurs affaires récentes (Mediator), dont se soutiennent tels grands conglomérats des industries pharmaceutique (Servier). Le mécanisme de séduction et de mystification bien organisée peut s’en démonter sans trop de difficultés.

Je vais entreprendre à ce propos de centrer rapidement la question, sans pouvoir la traiter de manière exhaustive, en me référant à un message d’un correspondant nommé Jean Pradines, et du reste cité ailleurs dans ce livre, qui me parle d’ « un article dans le dernier numéro de la revue « La Recherche » (n° 453, juin, p. 92), sous le titre « Alzheimer fait trembler les marchés financiers ». L’auteur, un canadien prof. d’histoire et sociologie des sciences, y montre comment la recherche fondamentale sur la cause, inconnue et controversée, de la maladie d’Alzheimer est (dés)orientée et faussée par celle des profits fabuleux résultant de la mise au point rapide de médicaments potentiellement nocifs s’ils s’appuient sur une théorie non avérée. Ça fait froid dans le dos. » J’ai déjà parlé pour ma part de ce genre de questions dans plusieurs endroits, dans Le débat sur la psychanalyse dans la crise en France (tome 2, pp. 181-187) et déjà dans La Guerre des psys continue (pp. 370-372). Je ne peux pas reprendre tout au long les propos que j’y ai alors développés, sauf quelques remarques.

De même que pour la « dépression », la définition de la « maladie d’Alzheimer » a subi au cours des années une modification en extension (en raison inverse de sa compréhension) qui lui a fait absorber toutes sortes de variétés et d’espèces, plus ou moins proches les unes des autres, de troubles de la « mémoire » liés à l’âge, sous une même appellation générique en réalité erronée (un alzheimer). Cet état de choses est avalisé par le public soumis à une pression médiatique constante, et ouvre la porte sur toutes sortes possibilités de manipulations commerciales. Les entreprises pharmaceutiques vont alors essayer de manière empirique approchée des produits qui ont souvent la propriété, comme beaucoup en pharmacopée, de n’être pas absolument spécifiques de tels troubles précis, mais d’atteindre une cible de largeur variable, et dont la délimitation comportera une part d’accord négocié sur suggestion avec le patient. C’est ici qu’intervient le problème difficile de l’interférence de la subjectivité sur l’évaluation pertinente de l’objectivité réelle, la part, dirions-nous, du Docteur Knock et aussi de l’effet placebo. On peut dès lors comprendre que cette double dimension du tâtonnement empirique et de la transaction avec le sujet soit susceptible de créer un effet de halo quant à la véracité probable, qui peut beaucoup gêner l’identification scientifique des vraies causes du phénomène, dont l’espèce a été préalablement dissoute dans un genre auquel d’ailleurs elle est faussement assimilée. Par ailleurs, cela a toujours été le propre de la mentalité « positiviste » (Comte) de créer un climat de superficialité consensuelle se proclamant d’une indifférence totale quant à la recherche de la cause profonde, qualifiée de métaphysique. Au surplus, la course au profit peut toujours, outre la vente de poudres de perlimpinpin, basculer dans celle de produits franchement nocifs.

Ce qui peut donner aussi froid dans le dos, pour reprendre l’expression de mon honorable correspondant, c’est ce que déclarait un jour dans une conférence le regretté É. Zarifian (2006), qui disait avoir connu jadis à Sainte-Anne, dans la jeunesse de son métier de psychiatre, la classification suivante des psychotropes : antidépresseurs pour la dépression, anxiolytiques pour l’anxiété, mais neuroleptiques (antipsychotiques selon les Américains) pour les psychoses. Maintenant, comme on n’a plus d’innovation - ce sont toujours les mêmes molécules et produits que dans les années 50 des grandes découvertes du français Denicker - et que seuls les médicaments de dénomination et de réimplantation mercantile récente valent chers, on a opéré un simple shifting complet des anciennes applications : on traite les troubles anxieux par des antidépresseurs, et les troubles de l’humeur par des neuroleptiques. Le mieux, ou le pire, c’est que ça marche, en calmant les gens, en les sonnant, en les abrutissant. Mais sans rien changer à la mécanique psychique fine qui cause la souffrance existentielle et personnelle.

On croit connaître depuis longtemps ces espaces épistémologiques particuliers où l’apparence plausible de vérité change de masque ainsi que dans la Fable de la Fontaine - chauve-souris ou oiseau selon l’(in)opportunité des rencontres. Tels sont les espaces également du débat juridique - dit « contradictoire » par les personnels de justice - l’avocat capable de démontrer aussi bien blanc que noir pour « emporter la conviction » du juge - comme du débat politique dont les « valeurs » peuvent subir des évaluations antagoniques, suivant le parti ou la position de classe des électeurs. C’est ce champ de l’éristique du probable modulé par le pathos qu’Aristote avait d’abord dénommé « dialectique », mot du reste oublié dès longtemps dans cet univers contemporain. Ce monde est celui où l’empirisme nord-américain est parfaitement à l’aise - à en juger par le succès télévisuel du spectacle de la justice à l’américaine. On nous en livre des tonnes, de discours d’attorney. On peut alors y voir s’inverser dans son contraire la prétention rigoriste de cette philosophie anglo-américaine, où s’encadre le laxisme d’un tel empirisme - toute fondée que soit à l’inverse celle-ci sur la logique formelle, les sciences dures et l’analyse linguistique minutieuse. Wittgenstein et McCarthy, c’est même le jour et la nuit. Deux formes, certes dans le contraste, du même genre d’obscurité, d’obtusion, de tache aveugle.

Ce monde nouveau de l’utilitarisme généralisé a été connu déjà depuis longtemps, comme anticipé dans certaines périodes critiques de l’histoire. On a parlé de Protagoras, illustre représentant de l’univers décadent du discours politique des sophistes, de la sophisterie (Gorgias, voir La Guerre de la psychanalyse, tome 1, chapitre 5), des agitateurs d’assemblée, des discoureurs matérialistes et des hommes de négoce que Platon décrivait comme munis de « petits yeux enfoncés », ainsi que ceux d’animaux de proie, monde aussi du matérialisme des premiers savants postromantiques et positivistes, dénommé par Hegel le « règne animal de l’esprit » (das geistige Tierreich, Phg, 1807, Bamberg, 282). Expression d’une appropriation somme toute vraiment remarquable pour désigner ce qu’est en définitive cet univers de l’empirisme nord-américain, et de son fleuron à présent si insistant, l’EBM-DSM : espace de la prose du mon-de, de la pensée naturelle non critique, comme règne animal de l’esprit, éden des animaux intellectuels.