Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 11
Temps de recherche: 0.0409s

désorientation

Élimination de la différence sexuelle, animalisation de l'homme, effacement de la mort, refus de l'idéal : c'est précisément dans ce monde informe, sans limite ni frontières, si bien décrit par Nietzsche, Muray ou Houellebecq que nous refusons de vivre.

Auteur: Braunstein Jean-François

Info: La philosophie devenue folle - Le genre, l'animal, la mort. 2018

[ sémantique ] [ modess ] [ onomasiologie historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

corps-esprit

À la lumière de nos découvertes mexicaines, je me demandais maintenant si le Soma* pouvait être vu comme un champignon. Du coup je me suis dit que les poètes avaient inévitablement introduit dans leurs hymnes d'innombrables idées/indices susceptibles d'aider à l'identification du célèbre Soma, non pas consciemment pour nous aider bien sûr, des millénaires plus tard et à des milliers de kilomètres de distance, mais librement édictés au sein de leur inspiration poétique.

Auteur: Wasson Robert Gordon

Info: Persephone's Quest: Entheogens And The Origins Of Religion. *Ensemble des cellules somatiques, c'est-à-dire non reproductrices, d'un organisme.

[ incarnation post-végétale ] [ palingénésie sémantique ] [ linguistique originelle ] [ onomasiologie biologique ] [ ethno-mycologie ] [ résonance morphique diachronique ]

 

Commentaires: 0

Ajouté à la BD par miguel

lexicologie

Fondé dans la langue française FLP s'amuse à utiliser les ressources informatiques afin d'explorer le langage et les idées, apportant ainsi de l’inattendu à ses utilisateurs. FLP est une sorte de cerveau gauche communautaire, c'est à dire une tentative de catalogage intriqué, géographique et chronologique, de ce que Gaïa et l'instinct mammifère humain ont sémantiquement fait émerger afin de se décrire eux-mêmes. Ainsi des singes glabres, usant de signes consensus, (se) racontent des histoires depuis des millénaires. FLP, grâce à ses participants, s'emploie à discerner et choisir des extraits au sein de ce corpus, puis à les étiqueter par voie humaine, tout en renseignant les auteurs, si possible, de manière précise. La puissance et la souplesse du moteur de recherche permettent ensuite de se promener de façon assez étonnante au sein de cette grande brocante littéraire.

Auteur: Mg

Info: oct 2019

[ onomasiologie ] [ sémasiologie ] [ citation s'appliquant à ce logiciel ] [ sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

classiques et poncifs

Dans le second chapitre de sa Rhétorique (II, 21, 1394a 24), Aristote emploie le terme gnômé pour les énoncés brefs destinés à la citation. La gnômé y est définie comme une formule exprimant "non pas les particuliers […] mais le général ; et non toute espèce de généralité mais seulement celles qui ont pour objet des actions […]." Les formes gnomiques désignent aujourd’hui les seules formules sentencieuses signées : maximes ou sentences (de maxima sententia, traduction latine de gnômé), et apophtegmes (paroles mémorables de personnages illustres) ; les énoncés parémiques (du gr. paroimia : "proverbe") et les formes apparentées (dictons et adages), créations anonymes, collectives, populaires, fruits de l’expérience accumulée de génération en génération par les usagers de la langue, véhiculant ce que l’on a l’habitude d’appeler "la sagesse des nations", présentent les mêmes caractéristiques sémantiques et grammaticales. Du point de vue linguistique,

-  l’énoncé gnomique, la maxime ou sentence :

Plaisir d’amour ne dure qu’un moment, chagrin d’amour dure toute la vie.

et sa variante parémique, le proverbe : 

Les bons comptes font les bons amis

sont des unités de discours achevées, constituées par des phrases autonomes du point de vue grammatical et référentiel. Du point de vue sémantique, ce sont des assertions se donnant pour universellement vraies. Ce type d’énoncé prétend donc à la généricité (par défaut) et emprunte, du point de vue linguistique, la structure des énoncés génériques exprimant des lois scientifiques.

Auteur: Schapira Charlotte

Info: Langages 2008/1 (n° 169), p 57

[ citation s'appliquant à ce logiciel ] [ généralisations idiomatiques ] [ onomasiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Mes travaux les plus importants ont porté sur le développement d'une approche logique de la sémantique du langage naturel, connue sous le nom de grammaire de Montague. Cette approche repose sur l'idée que la sémantique des langues naturelles peut être formalisée à l'aide de la logique intensionnelle, une branche de la logique qui s'intéresse aux significations des expressions.

Ma  Grammaire de Montague permet de rendre compte de la sémantique de nombreuses constructions grammaticales du langage naturel, notamment les constructions relatives, les constructions interrogatives, les constructions modales et les constructions quantifiées.

Mes travaux ont eu une influence considérable sur le développement de la linguistique et de la philosophie du langage. Ils ont notamment contribué à la création de la linguistique computationnelle, un domaine qui étudie les aspects formels du langage naturel.

Voici quelques-uns de mes apports les plus importants la sémantique du langage naturel :

- J'ai montré qu'il est possible d'utiliser la logique intensionnelle pour formaliser la sémantique des langues naturelles.

- J'ai développé une approche unifiée de la sémantique du langage naturel, qui permet de rendre compte de la sémantique de nombreuses constructions grammaticales.

- J'ai contribué à la création de la linguistique computationnelle, un domaine qui étudie les aspects formels du langage naturel.

A ce jour mes travaux sont toujours d'actualité et continuent d'être étudiés et développés par les linguistes et les philosophes du langage.

Auteur: Montague Richard

Info: Compil Bard-Mg, janv 2024 *qui s'oppose de manière critique à la théorie grammaticale de Chomsky, dans laquelle la sémantique est considérée comme un composant indépendant de la syntaxe. Montague affirme au contraire que le sens d'une phrase est immédiatement lié à sa construction syntaxique.

[ apprentissage automatique ] [ onomasiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

anti-poésie

Frege mit au point une écriture symbolique nouvelle, qu’il baptisa "idéographie", avec l’objectif affiché qu’aucun signe ne pût posséder plusieurs sens. Ce faisant, l’arithmétique devint une extension, ou un point d’application, de la logique élevée au rang de discipline universelle : "Le langage par formules de l’arithmétique est une idéographie puisqu’il exprime immédiatement la chose sans passer par les sons"*. D’où le corollaire suivant : les sujets et les prédicats sont évacués et laissent place à la fonction et à son argument ; ainsi "Socrate est mortel" devient f(Socrate) dont le résultat, binaire, est soit vrai soit faux. S’ensuivent la définition d’opérateurs logiques (comme le conditionnel ou la négation) puis l’introduction de quantificateurs (universel et existentiel) qui dépouillent la langue de toutes ses scories pour édifier un calcul propositionnel fondé sur une syntaxe rigoureuse. L’ambition de Frege fut ainsi d’édifier un symbolisme parfait et d’en dégager les lois internes, que l’auteur nomme "fondamentales", qui dictent les procédés de transformation, de déduction et d’inférence des propositions. Son objectif fut de parvenir à une sémantique fondée sur l’univocité : à chaque proposition une seule et unique référence. C’est bien là que réside la raison d’être de son entreprise : en effet, si Frege se lance dans ce gigantesque projet de l’idéographie, c’est bien pour pallier les lacunes du langage : "[…] le langage se révèle défectueux lorsqu’il s’agit de prévenir les fautes de pensée. Il ne satisfait pas à la condition ici primordiale, celle d’univocité"**. D’où la nécessité, ajoute le philosophe un peu plus loin, de recourir à "un ensemble de signes, purifiés de toute ambiguïté, et dont la forme strictement logique ne laisse pas échapper le contenu".

Auteur: Rappin Baptiste

Info: Sur https://journals.openedition.org/. Référence : Frege Friedrich "Écrits logiques et philosophiques". Paris : Éditions du Seuil, "Essais". 1971. *p. 68 **p 64

[ onomasiologie booléenne ] [ anti-métaphore ] [ anti-polysémie ] [ impasse ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

sémantique automatique

Les sceptiques n’en peuvent mais.

L’intelligence artificielle des textes, dont la réalisation la plus connue est chat GPT, a envahi avec succès nos vies et nos laboratoires.

Cependant, la machine n’a ni intelligence ni éthique. Les avatextes qu’elle produit ne sont pas fondés sur un prédicat de vérité et ne sauraient se revendiquer ni du bien, ni du beau, ni du mal. De plus, en l’absence d’intention de la machine, autre que la stochastique, le lecteur ne saurait engager un parcours interprétatif classique sur les contrefaçons textuelles générées ; et non créés. 

Nos questionnements portent sur la compréhension du mode de fonctionnement des IA, condition pour évaluer les plus-values heuristiques que les traitement deep learning peuvent avoir dans l’analyse des corpus textuels : l’interprétabilité/explicabilité des modèles est la question essentielle et préalable à tout usage scientifique (vs. commercial) de l'IA. En d’autres termes, l’IA, plus que tout autre traitement automatique, " suppose une herméneutique des sorties logicielles " (F. Rastier, La mesure et le grain, Champion, 2011 : 43).  

Nous plaiderons que les modèles convolutionnels (CNN) ont le pouvoir de rendre compte de l'axe syntagmatique, c'est-à-dire qu'ils exhibent les combinaisons saillantes sur la chaine des textes. Tandis que les modèles transformers ont le pouvoir de rendre compte de l’axe paradigmatique, c’est-à-dire qu’ils identifient les sélections ou les " rapports associatifs " (Le Cours, Chapitre V, pp. 170-175 de l'éd 1972) des textes en corpus. Dans les deux cas, et de manière fermement complémentaire, c’est à un effort de co(n)textualisation que nous appelons – le mot en relation syntagmatique avec son co-texte immédiat, le mot en association avec ses coreligionnaires du paradigme en mémoire ou en corpus – pour une sémantique non pas formelle mais une sémantique de corpus.

Auteur: Mayaffre Damon

Info: Descriptions idiolectales et Intelligence artificielle. Que nous dit le deep learning sur les textes ? Résumé introductif de son intervention

[ homme-machine ] [ onomasiologie mécanique ] [ signifiants vectorisés ] [ pensée hors-sol ] [ ouverture ] [ méta-contextualisation ] [ interrogation ] [ sémèmes ] [ lexèmes ] [ analyse sémique ]

 

Commentaires: 0

Ajouté à la BD par miguel

positionnement de l'étiqueteur FLP

Vu que les éléments biographiques rapportés par les annales de notre histoire culturelle collective sont trop souvent entachés d'égoïsme, de flagornerie et/ou de calculs divers rapport à telle postérité ou tel pouvoir, nous tenterons de nous appuyer au maximum sur les logiques sémantiques et linguistiques, au sens ou un idiome est appréhendé comme le codage honnête d'une réalité - ou d'un imaginaire issu de celle-ci. Ceci en nous appuyant sur la si efficace logique de Charles Sanders Peirce. Bien conscients que tout cela reste au prisme unique d'un très instable mammifère humain vivant dans un biotoque instable lui-aussi ; et des aléas divers qui ont amenés les traces de ce codage jusqu'à la personne singulière qui les insérera sur FLP.

Avant les symboles, mots et phrases, régnaient, et règnent, le réel et les sentiments qu'en ont les hommes.

A partir de là le catalogueur tentera simplement d'être sincère, distancié, recueilli et réfléchi.

Il doit aussi ne jamais oublier de penser de ce point de vue : quelles sont les chances que je donne à cet extrait d'être retrouvé, dans le cadre d'une pure logique verbale, ou au moins de la mienne ? En prenant même parfois le temps le temps de fonctionner en rétroaction, c'est à dire en utilisant certains termes combinés pour effectuer une recherche sur FLP, Google, ou autre afin d'en apprécier les résultats, par comparaison avec les pensées qui lui viennent en écho de tel ou tel extrait.  

Au cas où une vraie question viendrait le titiller, comme : de quel point de vue dois-je me placer pour ce faire ?  il pourra éventuellement se renseigner sur les modalités linguistiques logiques en cours chez les spécialistes de la sémantique.

Auteur: Mg

Info: 29 septembre 2020

[ onomasiologie ] [ citation s'appliquant à ce logiciel ] [ réflexivité communautaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

étiquetage FLP

Lorsqu'Octavio Paz affirme que "traduire est la façon la plus profonde de lire", il interpelle les concepteurs des "fils de la pensée". "La plus profonde" parce que le traducteur doit intégrer la compréhension des mots, la compréhension du sens et celle du climat général du texte/histoire... avant de le transposer dans un autre idiome.

C'est à dire qu'il doit le lire plusieurs fois, chaque fois avec une focale différente, de "points de vue" variés. Il intègre aussi, consciemment ou pas, plein d'autres paramètres : conditions de vie de l'auteur, pays, spécificité de sa langue, de son époque et ses us en coutume, etc... Démontrant par là même la merveilleuse plasticité d'un cerveau, le notre, capable (dans l'idéal) de gérer tous ces niveaux.

La lecture du "tagueur" FLP se différencie de deux manières de celle du traducteur.

PRIMO : étant entendu qu'il lit et parle couramment la langue en question, (qu'il ne doit donc pas traduire), il conserve une vitesse de croisière, cursive, qui fait que son esprit se soucie beaucoup moins des détails, plus focalisé sur le sens de l'idée ou des phrases qui défilent. Lecteur-miroir il perçoit, reçoit... comprend, ressent. Et boum ! Voilà qu'il tombe sur une formulation qui le frappe, le conforte d'une manière ou d'une autre. Une impression déjà vécue mais jamais exprimée, un agencement des mots, ou de phrases, qui reflètent une réalité pressentie, expériencée... rêvée ? Ici notre lecteur-miroir est déjà en train d'indexer inconsciemment puisque son "être chair-esprit" reconnait (s'identifie à ?) une "idée vraie", une "pensée drôle", "réflexion sage", "parole profonde", etc.

SECUNDO : focalisé sur le sens d'une phrase ou d'un extrait, il doit maintenant repérer la ou les quelques "idées-clefs" du texte en question. Pour ensuite faire sa petite cuisine. Quelles sont-elles ? Sont-elles clairement représentées par des mots de l'extraits ? Si oui quels sont les plus pertinents, et, parmi ceux-ci, le plus important (Catégorie)... Sont-ils déjà dans le corps du texte ? Si oui : quel synonyme utiliser pour focaliser le concept, comment se débrouiller ?

Ce simple extrait, (celui que vous avez devant les yeux !), contient en lui-même beaucoup (tous?) de ces éléments. Ne reste plus qu'à lui joindre les termes catégorie et tags - absents du texte même, et propices à la précision de son indexation. Et l'introduire dans la base de données du logiciel. Pour les auteurs et leur paramètres voir ici.

Pour info les chatbots comme ChatGPT4, Bard, ou autres... sont encore assez loin du compte pour ce qui est de taguer correctement un extrait, en suivant les règles, avant son insertion dans le corpus de cette application, et son éventuelle modération/discussion. Ne qui n'empêche en rien, à l'occasion, de les mettre à contribution, et parfois d'échanger plus avant avec eux à des fin de désambiguation sémantique.

Auteur: Mg

Info: 13 août 2016 - 2024

[ analyse ] [ citation s'appliquant à ce logiciel ] [ réflexivité ] [ onomasiologie ]

 
Mis dans la chaine

Commentaires: 0

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel