Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 6
Temps de recherche: 0.0455s

écrivain

L’œuvre de Raymond Roussel est un exemple parfaitement accompli d’une écriture autosuffisante qui élimine toute trace de réalité au profit de son propre objet littéraire. […] Cette mise au ban du réel s’effectue à deux niveaux et en deux temps. Tout d’abord Roussel libère le langage de sa charge habituelle, d’avoir à évoquer le réel, pour en faire son unique source d’inspiration et d’information. […] Mais d’autre part cette écriture même, dont Roussel fait le premier et dernier mot de la littérature, apparaît moins comme un système de significations, autonome mais logique, que comme une combinaison à jamais arbitraire de pseudo-significations ou de significations aberrantes, le hasard des assonances et des homonymies – le jeu de mots – en constituant l’unique consistance. […] Car le langage roussellien se passe de signification intrinsèque comme il se passe de référence à une réalité extérieure : d’une part, il n’a rien à dire, d’autre part il ne veut de toute façon rien dire.

Auteur: Rosset Clément

Info: "Mirages" in L'école du réel, pages 187-188

[ style ] [ analyse ] [ manière ] [ hors-sol ] [ folie ]

 

Commentaires: 0

Ajouté à la BD par miguel

mondialisation

La concentration des infrastructures de contrôle social dans quelques mains privées a [...] deux conséquences de taille. La première est évidemment que les décisions concernant les structures de contrôle et de surveillance viennent à être prises par un nombre restreint de personnes, dont le but premier est la maximisation d’un profit à l’échelle mondiale, donc souvent la maximisation des flux abstraits – sur lesquels ils pourront prélever des commissions – sur la planète. [...] Cette dépossession au profit de processus impersonnels mondialisés est évidemment l’un des principaux moteurs du "complotisme". [...]

Un ultime corollaire à la mise en place de ce système mondial est que chefs d’États et gouvernements sont de plus en plus dépourvus vis-à-vis de la "mégamachine" de surveillance des flux, laquelle mène une existence de plus en plus autonome. Ainsi, lorsqu’une procédure est mise en place, la question qui domine n’est souvent plus de savoir si elle est conforme aux intérêts politiques locaux, mais de s’assurer de sa conformité avec ce qui a été décidé ailleurs. [...] A nouveau, une logique qui donne le sentiment d’une immense corruption des dirigeants, quand bien même la réalité est souvent plus banale. L’illusion d’optique vient du fait que l’on s’acharne souvent à voir en eux des acteurs politiques, c’est-à-dire préoccupés par la représentation et la défense d’intérêts politiques et locaux. Sauf exception, ils ne sont souvent que des acteurs juridiques et administratifs, chargés de s’assurer de la compatibilité des cadres législatifs et juridiques locaux avec la mégamachine planétaire. Ils dirigent, consciemment ou inconsciemment, la filiale nationale d’une entreprise mondiale.

Auteur: Travers Guillaume

Info: Dans "La société de surveillance, stade ultime du libéralisme", La nouvelle librairie, Paris, 2021, pages 87 à 89

[ privatisation ] [ hors-sol ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Pourquoi l’IA commence à devenir un serpent qui se mord la queue ?

Il est fascinant de constater combien l’avancée technologique influence le paysage numérique. L’IA se tient à la proue de cette révolution contemporaine. Mais, à mesure que l’IA progresse, elle semble devenir le reflet de l’ouroboros, ce serpent antique qui se mord la queue.

Le monde virtuel subit une transformation. Partout sur Internet, le contenu généré par l’IA gagne du terrain. Cette évolution peut sembler une menace pour les futurs modèles d’IA. Pourquoi ? Parce que des modèles comme ChatGPT se basent sur des informations glanées en ligne pour se former. Si cette source est polluée par du contenu " synthétique ", cela peut entraîner ce que l’on appelle un " effondrement du modèle ".

Le danger est tel que le filtrage de ces données synthétiques est devenu un champ de recherche crucial. Les experts s’y penchent, car l’ampleur du contenu de l’IA ne cesse de grandir.

L’IA, la queue qu’elle poursuit sans cesse

L’ouroboros, serpent ancien se dévorant lui-même, devient le symbole par excellence de l’IA actuelle. L’émergence massive du contenu éditorial produit par l’IA alarme de nombreux spécialistes. Mais le problème central, c’est la potentialité des erreurs qui s’insèrent dans ces contenus.

En se nourrissant de l’Internet, l’IA, telle un serpent mordant sa propre queue, risque d’intégrer des erreurs, créant une spirale infinie d’imperfections. Une récente étude met en exergue ce phénomène : après plusieurs cycles de formation sur du contenu synthétique, les résultats devenaient incompréhensibles.

Par ailleurs, une autre recherche montre que les images générées par l’IA, lorsqu’elles sont uniquement basées sur des données d’IA, finissent par être floues et non identifiables. Ces erreurs, bien qu’apparemment bénignes, pourraient amplifier des biais discriminatoires, rendant la tâche encore plus ardue.

Pour contrer cela, nous devons miser sur des données non corrompues par du contenu synthétique. Comme l’évoque Alex Dimakis de l’Institut national de l’IA, la qualité intrinsèque des modèles est tributaire de la qualité des données. Même une modeste quantité de données de haute qualité pourrait surpasser un vaste ensemble synthétique.

Ainsi, les ingénieurs restent sur le front, veillant à ce que l’IA ne s’entraîne pas sur des données qu’elle a elle-même produites. Car, malgré les prouesses de l’IA, la touche humaine demeure irremplaçable. 

 

Auteur: Internet

Info: https://www.lebigdata.fr, Nirina R., 24 octobre 2023

[ intelligence artificielle ] [ générative ] [ cercle vicieux ] [ sophisme ] [ logique hors-sol ] [ tri nécessaire ] [ épuration ] [ savoirs ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

L'argument de la chambre chinoise de John Searle remet en question l'idée que les ordinateurs puissent véritablement comprendre le langage. Il présente un scénario dans lequel une personne dans une pièce suit des instructions en anglais pour répondre à des symboles chinois, sans réellement comprendre la signification de ces symboles. Selon Searle, cette situation est similaire à la manière dont les ordinateurs traitent l'information : ils manipulent les symboles sur la base de règles prédéfinies, mais ne les comprennent pas vraiment. Il estime que la compréhension nécessite une conscience et une intentionnalité que les machines ne possèdent pas. En substance, l'argument de Searle suggère que les ordinateurs peuvent simuler le traitement du langage, mais qu'ils ne comprennent pas vraiment le sens des symboles qu'ils manipulent. En résumé :

Un ordinateur programmé pour parler chinois ne comprend pas le chinois. Il ne fait que suivre des règles.

L'intelligence humaine comprend le chinois.

- L'intelligence artificielle ne peut donc pas être confondue avec l'intelligence humaine.


Ainsi, selon cette triple perspective : celle de chatGPT4, le point de vue "FLP post Peirce", ainsi que les règles de notre application... ce concept de chambre chinoise implique qu'une race organique comme les humains, nécessite une priméité commune, un monde partagé, afin de pouvoir réellement communiquer-traduire avec ses semblables lorsqu'ils parlent un autre idiome. Dit autrement lors d'un échange-transposition, via l'utilisation de mots symboles (qui sont des univers en eux-mêmes), les entités organiques d'une même espèce doivent partager le même univers source - même si cette idée peut apparaitre come un truisme.

Il sera certes possible d'affiner très avant tous les concepts possibles pour une machine, mais il manquera toujours à pareil logiciel hors-sol un certain nombres de compétences-capacités-attributs que possèdent les êtres organiques-grégaires. Dans le désordre : La capacité poétique, le sens du jeu avec les mots (univers eux-mêmes), du contrepied sémantique et de l'humour... Une souplesse d'adaptation tous azimuts en fonction des contextes, humeurs, vitesse du vent, etc...  Et probablement, par dessus tout, la capacité de mentir, de jouer avec les apparences.

Il est certain que lA dominera l'humain dans beaucoup de domaines hyper-complexes - où elle devra être utilisée comme outil spécialisé. Mais, pour ce qui est d'une " prise avec le réel ", d'une capacité à saisir tel ou tel langage corporel dans l'instant, de communiquer-interagir sensuellement avec un chat ou même un végétal... On demande à voir.

Ces problématiques seront probablement analysables avec un surcroit d'acuité le jour d'une rencontre avec des organiques évolués non-humains et non-issus de Gaïa.  Apprenons d'abord à mieux nous intégrer dans cette dernière, probablement par l'usage d'une nouvelle logique, tétravalente... moins dépendante de son langage... preuve en étant apportée par les capacités d'expansion-adaptation des constructions permises par le carbone tétravalent.

Auteur: Mg

Info:

[ machine-homme ] [ chatbot tiercité hors-sol ] [ apprentissage automatique ] [ transposition ] [ xénolinguistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

fausse viande

La Décroissance : Pour vous, l'abolition de l'élevage fait le jeu du capital : il y a une collusion d'intérêts entre ceux qui la prônent et la science, l'industrie, les start-up des biotechnologies, les investisseurs qui se saisissent du marché en plein essor des substituts alimentaires...

Jocelyne Porcher: [...] Ce qui se développe aujourd'hui, le véganisme, la revendication d'en finir avec l'élevage, cela sert des intérêts économiques. L'agriculture cellulaire qui arrive, en collusion avec les défenseurs des animaux au nom d'une agriculture sans élevage, s'inscrit dans la continuité du processus d'industrialisation de la production alimentaire. On passe de la production de matière animale à partir d'animaux à la production de matière animale sans les animaux, avec les mêmes acteurs : c'est-à-dire la science, l'industrie, la banque. [...] Avec l'agriculture cellulaire, on change le niveau d'extraction : au lieu d'extraire la matière animale à partir de la vache, du cochon, etc., l'extraction se fait à un niveau plus resserré, au niveau de la cellule. On est bien dans la même logique de pensée, complètement inscrite dans le système capitaliste. Ce qui explique à la fois le soutien financier accordé aux associations véganes, type L214, qui reçoit directement de l'argent d'une fondation américaine et qui a une surface médiatique sans commune mesure avec ce qu'elle fait réellement, c'est-à-dire de la communication au service d'une agriculture sans élevage. [...]

LD : En quoi consiste la viande "propre" que les start-up veulent produire ?

JP : Mark Prost, un des premiers biologistes a avoir travaillé là-dessus, celui qui a présenté le premier hamburger in vitro en 2013, disait : "La viande in vitro est 100% naturelle, la seule différence c'est qu'elle est produire en dehors de la vache..." C'est ça l'idée: ils considèrent que la vache, ce n'est que de la ressource de matière animale. [...] L'idée de certaines start-up, c'est de faire l'équivalent du produit industriel en se passant d'animaux : selon eux, la multiplication de cellules de poulet va donner la même chose que le poulet qu'on achète actuellement dans les supermarchés, au moins visuellement...

LD: On a l'impression qu'ils n'en sont qu'au stade expérimental. Ce marché est-il appelé à grandir ?

JP: [...] Il y a des milliards investis là-dedans, des dizaines de start-up qui se développent, le potentiel du marché est énorme, non seulement en ce qui concerne la viande in vitro, mais aussi l'ensemble des substituts: le faux lait, les faux oeufs, le faux cuir... le faux tout. D'un point de vue technique, ce qu'on réussit à faire dans un incubateur, on peut réussir à le faire dans cent incubateurs. [...] Après il y a le volet sanitaire : ce sera peut-être un peu plus compliqué de garantir l'innocuité de ces produits. Mais aux Etats-Unis, cette viande in vitro est déjà autorisée à la vente, comme si c'était un produit ordinaire. La deuxième limite, c'est le consentement des gens à manger ces produits. C'est pourquoi, en plus de l'aspect production, les start-up des biotechnologies font un travail de fond pour préparer les consommateurs, construire la demande. De ce point de vue, des associations comme Peta aux Etats-Unis, L214 en France et Gaïa en Belgique, préparent vraiment le terrain pour que le marché des substituts se développe.

LD: Pour vendre ces substituts, l'industrie des biotechnologies affirme qu'elle oeuvre pour un monde meilleur. Vous, au contraire, vous montrez qu'elle signe le triomphe de la société industrielle et technicienne.

JP : Non seulement c'est l'industrialisation complète du vivant, mais c'est aussi la réduction de la vie au vivant. [...] On produit un amas de cellules qui se multiplient, c'est du vivant biologique, mais il n'y a pas de vie. C'est effectivement le triomphe de la technique, en tant qu'elle est complètement mortifère. Je le dis en citant Michel Henry, qui l'explique dans son livre La Barbarie : le triomphe de la technique sur la vie, c'est une destruction de la vie même, des affects, de la culture, du lien, de tout ce qui fait que la vie, c'est autre chose que du vivant.

LD: Le mouvement de la "libération animale" a l'air plus implanté dans les métropoles que dans les campagnes. Est-ce que vous pensez que ce type de préoccupation relève d'une civilisation très urbanisée comme l'est la nôtre, hors-sol, où on n'a plus de contact avec la terre, l'élevage et la production alimentaire en général ?

JP : Quand on est dans un milieu rural où il y a encore des vaches dans les champs, où les gens peuvent encore croiser des agriculteurs, des éleveurs, avoir un rapport à la vie et à la mort, les revendications d'en finir avec l'élevage passent beaucoup moins facilement que dans un milieu urbain, où les gens sont complètement déconnectés de la production, de ce que c'est qu'un champ, une prairie, de ce qui fait la relation de travail entre les humains et les animaux, et plus largement entre les agriculteurs et la nature. [...] Toute la propagande abolitionniste leur dit qu'élevage et production animale, c'est pareil. Ils sont dans la compassion, l'émotion. Des visions d'animaux maltraités leur arrivent sur leurs smartphones, et ils ont des réactions binaires : "la viande c'est mal, c'est affreux, je n'en mange plus." [...]

LD: Marx ironisait au XIXe sur les bourgeois qui se préoccupaient de protection animale mais qui ne se souciaient pas de la dégradation des conditions de vie dans les cités industrielles. Dans votre livre, vous notez aussi qu'une certaine protection animale, contemporaine de l'industrialisation et de l'urbanisation, parle de "bien-être animal" en dépolitisant la question.

JP : C'est aussi ce qu'a souligné l'historien Maurice Agulhon à la suite de Marx : le fait qu'au XIXe siècle, la protection animale vise d'abord à pacifier les classes populaires, avec l'hypothèse que la violence commise envers les animaux est de leur fait, et qu'au-delà couve le risque d'une violence contre l'ordre social, contre la bourgeoisie. Toute cette bourgeoisie, qui tient les transformations sociales, veut pacifier les mœurs après les révolutions de 1830 et 1848. Et l'un de ses moyens, c'est de pacifier les rapports envers les animaux, avec l'idée qu'il y a une violence atavique des classes populaires contre les animaux, que les gens ordinaires sont des brutes épaisses qu'il faudrait maîtriser, former, éduquer, civiliser. La loi Grammont, votée en 1850, [...] condamne le cocher qui malmène son cheval, mais pas le bourgeois propriétaire de la mine où descendent des chevaux et des enfants. On condamne la violence des personnes, des paysans, des ouvriers, mais on ne remet pas en cause les énormes bouleversements qu'engendre l'industrialisation [...] : la violence inouïe contre les enfants, les femmes et les hommes, mais aussi contre les animaux qui sont tous prolétarisés. Aujourd'hui, les défenseurs du "bien-être animal" sont toujours dans cette vision individuelle et dépolitisée : il suffit de voir une association comme PETA appeler à éduquer les gens, les rendre moraux, en leur donnant de la viande in vitro s'ils tiennent absolument à en manger, alors qu'elle occulte complètement les rapports sociaux et l'organisation du travail pensée par la bourgeoisie. Pourtant, la question, c'est bien la place des animaux dans les rapports sociaux, la violence faite aussi bien aux humains qu'aux animaux. Dans les porcheries industrielles par exemple, les gens subissent les mêmes conditions de vie au travail que les bêtes : on est enfermé du matin au soir, dans la poussière, le bruit, les odeurs infectes, c'est le même univers concentrationnaire pour les uns et pour les autres.

Auteur: Porcher Jocelyne

Info: Dans "La décroissance" N°165, décembre 2019, pages 26-27

[ enjeux économiques ] [ lobbies ] [ nourriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel