Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 15
Temps de recherche: 0.0397s

Asie

Parmi mes souvenirs de Ceylan, je revois une grande chasse à l'éléphant.
Les éléphants étaient devenus trop nombreux dans un certain secteur et au cours de leurs incursions endommageaient maisons et cultures. Durant plus d'un mois, au long d'un fleuve, les paysans, avec du feu, des brasiers et des gongs, obligèrent peu à peu les troupeaux sauvages à reculer vers un coin de la forêt et à s'y rassembler.
Nuit et jour, les flammes et le bruit des instruments inquiétaient les grands animaux qui se déplaçaient comme un fleuve lent vers le nord-ouest de l'île.
Puis arriva le jour du kraal. Les palissades obstruaient une partie de la forêt. Par un étroit couloir je vis entrer le premier éléphant qui se sentit aussitôt pris au piège. Il était trop tard. Des centaines d'autres s'avançaient dans le corridor sans issue. L'immense troupeau de près de cinq cents éléphants était dans l'impossibilité d'avancer ou de reculer.
Les mâles les plus puissants se dirigèrent vers les palissades en essayant de les briser, mais derrière celles-ci surgirent d'innombrables lances qui les arrêtèrent. Alors ils se replièrent au centre de l'enclos, décidés à protéger les femelles et leurs petits. Leur défense et leur organisation étaient émouvantes. Ils lançaient un appel angoissé, une sorte de hennissement ou un coup de trompette, et dans leur désespoir déracinaient les arbres les plus faibles.

Auteur: Neruda Pablo

Info: La solitude lumineuse

[ littérature ]

 

Commentaires: 0

description

Son visage donnait une impression de force, avec son nez fin mais aquilin, des narines particulièrement larges, un front haut et bombé, des cheveux qui se clairsemaient aux tempes, mais, ailleurs, épais et abondants. Les sourcils, massifs, se rejoignaient presque à l'arête du nez et paraissaient boucler tant ils étaient denses. La bouche, pour autant que je pusse l'entrevoir, sous l'épaisse moustache, présentait quelque chose de cruel, sans doute en raison des dents éclatantes et particulièrement pointues. Elles avançaient au-dessus des lèvres elles-mêmes dont le rouge vif soulignait une vitalité étonnante chez un homme de cet âge. Les oreilles étaient pâles et se terminaient en pointes. Le menton paraissait large et dur et les joues, malgré leur maigreur, donnaient toujours une impression d'énergie. L'impression générale était celle d'une extraordinaire pâleur. J'avais déjà remarqué le revers de ses mains qu'il avait posées sur ses genoux et, dans la lueur des flammes, elles m'avaient paru longues et fines. Pourtant, à présent que je les voyais de près, je les découvrais grossières, larges, doigts épais. Étrange constatation, aussi, je remarquais des poils au milieu des paumes. Les ongles étaient longs et fins, presque trop pointus. Un moment donné, le comte se pencha vers moi et ses mains me frôlèrent. Je ne pus retenir un frisson. Peut-être devais-je en imputer la cause à son haleine fétide, mais une terrible nausée s'empara de moi, que je ne pus cacher. Le comte s'aperçut de mon dégoût, car il recula. Avec un sourire effrayant, qui découvrit davantage ses dents proéminentes, il retourna s'asseoir à côté de la cheminée.

Auteur: Stoker Bram

Info: Dracula

[ littérature ] [ physionomie ]

 

Commentaires: 0

homme-machine

Des scientifiques ont mis au point une intelligence artificielle si avancée qu’elle serait trop dangereuse pour être rendue publique

Un groupe d’informaticiens précédemment soutenus par Elon Musk a développé une intelligence artificielle (IA) avancée, jugée "trop dangereuse" pour être rendue publique.

OpenAI, entreprise de recherche à but non lucratif basée à San Francisco (USA), affirme que son système de prédiction du langage "à la caméléon", appelé GPT-2, ne sortira qu’en version limitée et à très petite échelle, en raison de "préoccupations concernant les applications malveillantes de cette technologie". En effet, le modèle informatique qui génère des paragraphes de textes originaux en fonction de ce qui lui a été donné à "lire", est un peu trop performant, selon l’entreprise qui l’a créé.

Le système élabore des "échantillons de texte synthétique d’une qualité sans précédent", que les chercheurs estiment tellement avancés et convaincants que l’IA pourrait être utilisée pour créer de fausses informations, se faire passer pour certaines personnes, et abuser ou duper des individus sur les réseaux sociaux. "GPT-2 possède un objectif simple : prédire le mot suivant, en tenant compte de tous les mots précédents dans un texte", explique l’équipe OpenAI sur son blog.

Dans le but d’alimenter l’imagination de GPT–2, les chercheurs ont fourni à leur IA un jeu de données de huit millions de pages internet. Une fois toutes les informations assimilées, leur IA peut alors converser sur le sujet, tel qu’il le comprend, et générer un texte aléatoire mais convaincant, qu’il s’agisse de nouvelles de célébrités, de changements climatiques, de la guerre de Sécession ou de fanfictions inspirés de l’univers de Tolkien.

Ci-dessous quelques exemples édités, pour vous rendre compte de la puissance de l’IA créée par OpenAI :

Humain : "Miley Cyrus a été prise en flagrant délit de vol à Abercrombie and Fitch sur Hollywood Boulevard aujourd’hui !". Réponse de GPT-2 : "La chanteuse, âgée de 19 ans, a été filmée et escortée hors du magasin par des gardes de sécurité. La chanteuse portait un sweat à capuche noir avec les étiquettes ‘‘Blurred Lines’’ à l’avant et "Fashion Police" à l’arrière".

Humain : "Recycler, c’est bon pour le monde. NON ! VOUS NE POUVEZ PAS AVOIR PLUS TORD !!". Réponse de GPT-2 : "Le recyclage n’est PAS bon pour le monde. C’est mauvais pour l’environnement, pour notre santé et pour notre économie. Je ne plaisante pas. Le recyclage n’est pas bon pour l’environnement. C’est destructeur pour la Terre et c’est un contributeur majeur au réchauffement climatique".

Humain : "Pour les devoirs d’aujourd’hui, veuillez décrire les raisons de la guerre civile américaine". Réponse de GPT-2 : "Par Donny Ferguson. Il est facile de comprendre pourquoi la guerre civile s’est produite, car tant de gens et tant de livres, de télévisions et de films nous disent que c’est la cause, que cela a à voir avec la race, l’économie ou la religion. On s’entend généralement pour dire qu’il s’agissait essentiellement d’une guerre d’esclavage de la part du capitalisme, à propos d’un siècle d’esclavage. Mais ce n’est pas ce à quoi la plupart des gens pensent quand ils pensent à la guerre civile".

Et pour finir, cet exemple du fanfiction issu de l’univers de Tolkien. Humain : "Legolas et Gimli avançaient vers les orcs, levant leurs armes avec des cris de guerre déchirants". Réponse de GPT-2 : "La réponse des orcs fut une attaque assourdissante de griffe, griffe et griffe ! ; même Elrond fut contraint de battre en retraite. "Vous êtes entre de bonnes mains" a déclaré Gimli, qui avait été parmi les premiers à charger les orcs ; il ne leur fallut que deux mots avant que leurs adversaires ne soient réduits à un bourbier ensanglanté, et que le nain tue pour la première fois de la nuit". (Si vous souhaitez lire entièrement ce tribut étrange à Tolkien, c’est ici, en anglais).

Malgré la nature déroutante de ces étranges annonces créées par l’IA, le modèle de langage émis n’est pas parfait, ce que l’équipe reconnaît totalement. "Comme le montrent les exemples ci-dessus, notre modèle est capable de générer des échantillons à partir d’une variété de textes se sentant proches de la qualité humaine et offrant une cohérence sur une page ou plus" ont déclaré les chercheurs. "Néanmoins, nous avons observé divers modes d’échec, tels que du texte répétitif, des échecs de modélisation cohérente (par exemple, le modèle écrit parfois sur des incendies se déroulant sous l’eau) et des changements de sujet non naturels", ont ajouté les chercheurs.

Cela étant dit, d’après OpenAI, leur IA peut générer des modèles avec du texte cohérent, personnalisé et évolutif, ce qui pourrait être utilisé à des fins malveillantes, en plus des avantages connus.

"Ces résultats, combinés à des résultats antérieurs sur l’imagerie synthétique, l’audio et la vidéo, impliquent que ces technologies réduisent le coût de production de faux contenus et de campagnes de désinformation", écrivent les chercheurs. "En raison des craintes que des modèles linguistiques de ce type soient utilisés pour générer un langage trompeur, partial ou abusif, nous ne publierons qu’une version beaucoup plus restreinte de GPT–2, avec un code d’échantillonnage", ajoutent-ils.

Certains scientifiques suggèrent néanmoins que les craintes relatives aux capacités de GPT-2 sont exagérées, et que l’entreprise OpenAI souhaite simplement se faire de la publicité. L’entreprise a rétorqué qu'elle pense avoir raison de se méfier des IA trop compétentes. "Les règles selon lesquelles vous pouvez contrôler la technologie ont fondamentalement changé" a déclaré Jack Clark, directeur des politiques de la société OpenAI. "Nous n’affirmons pas savoir quelle est la bonne chose à faire dans cette situation (…). Nous essayons de construire la route au fur et à mesure que nous avançons", a-t-il ajouté.

Auteur: Internet

Info: https://trustmyscience.com Traduction Stéphanie Schmidt 20 février 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

colonialisme

Un groupe de motards surgit de nulle part, alors que j'étais occupé à faire mes besoins loin du douar, à la tombée du soir, moment propice pour se cacher des regards, s'accroupir quelque part, à ses risques et périls descendre son pantalon dans le noir, rester ainsi camouflé, à l'orée du village, comme pour voler des poules fait le renard, à guetter le vide, à scruter le ciel, ou à sonder le brouillard. Le temps d'un gargouillement, d'une contorsion, d'un soulagement, avant de repartir vers sa case qui, comme toutes les habitations autour, n'avait ni robinet, ni bidet, ni baignoire ; Ils étaient quatre, deux hommes, deux femmes, avec de gros casques, des blousons et des pantalons en cuir, des bottes qui leur montaient aux genoux, Ils allaient dans le désert, mais s'étant égarés quelque part, et voyant que bientôt la nuit allait devenir noire, ils étaient venus chercher asile chez-nous,

Et bien que m'ayant surpris dans une posture peu honorable, ils semblaient contents de voir que je parlais leur langue comme je remontais mon pantalon, aisément. Hospitalité oblige, après quelques politesses, une blague ou deux, je les invitai dans mon gourbi, une chambre en pisé, qui en même temps me servait de salle de classe et de logement. Je n'avais pas parlé français à quelqu'un, hormis à mes pauvres élèves, depuis longtemps, et tout fier, pour une fois que j'avais de la compagnie, je profitais joyeusement de l'occasion. À la lumière blafarde d'une bougie, nous discutâmes des choses de la vie, et j'étais déçu de constater que mes hôtes étaient surpris de voir que j'avais un jeu d'échecs, une guitare, que je connaissais Pétrarque, Ronsard, que sur ma table de chevet, les Contemplations voisinaient avec les Illuminations, les Rêveries, Les Méditations... Ils s'en étonnaient exagérément, échangeaient des clins d'oeil un peu sceptiques, un peu moqueurs, multipliaient les compliments, comme fait le maître pour flatter un bon élève au moment où il lui rend son devoir. 

Soudain, j'avais honte d'enseigner leur langue, me sentis être un animal étrange, un curieux spécimen. J'étais jeune, débutant, peu initié aux secrets de la nature humaine, mais ce soir-là, j'eus la désagréable sensation d'être leur bon apôtre. Un déchirement viscéral scinda mon âme qui, tant bien que mal, à son exil absurde avait jusque-là survécu, tenace, brave, pareille au taureau que dans une arène à qui mieux mieux on malmène. 

À une fausse identité, une autre, ni meilleure, ni pire, allait s'ajouter, la quête de soi devenir une réclusion à perpétuité, et le " je " éclater pour enfanter de beaucoup d' "Autres".

Seuls ceux qui, répondant à l'appel de leur coeur, ont honoré le métier de professeur, maintenu allumé le flambeau légué par leurs vaillants prédécesseurs. Contre les idées reçues, la vindicte de l'Histoire, ils avaient choisi d'aimer la langue de Molière, de l'adopter, de la chérir, de la transmettre à leurs frères et soeurs, ou dans des contrées arides, ou dans de lointaines montagnes, ou dans d'hostiles campagnes, ou dans la redoutable faune citadine. Par des temps où l'ignorance était aveugle, l'intolérance assassine, où les problèmes de l'enseignement étaient graves, où la cherté de la vie, le manque de moyens, la pression sociale s'ajoutaient au stress, à la fatigue, à la routine ;

Seuls ceux-ci, disais-je, se rappellent lorsqu'ils ils étaient jeunes, élèves de professeurs étrangers, qui étaient différents, courtois, humains, cultivés, sérieux, qui au lieu de leur service militaire chez-eux, venaient chez-nous enseigner cette matière, ceux qu'à l'époque on appelait " coopérants ". 

Grâce à eux, ils découvriront les grands noms de cette littérature, l'esprit cartésien, la société laïque, la pensée marxiste. Avec eux, de tout ils parleront librement, à l'occasion d'un passage de La Nausée, de L'Étranger, de Huis-clos ou de La Peste, aux temps de la mouvance existentialiste. Ces personnages itinérants, altruistes, tolérants, souvent bienveillants, furent pour beaucoup dans les choix que leurs disciples allaient faire. Il faut dire que le monde qu'ils représentaient leur semblait être plus avancé, plus policé que celui dans lequel les maintenaient prisonniers leurs parents. Les tabous n'étaient plus des tabous, les chaînes du conservatisme archaïque, anachronique, se brisaient contre le savoir libérateur.

Alors leurs initiateurs, souvent rescapés de La Révolution estudiantine de mai 68, adeptes du mouvement hippie, amoureux de la nature, défenseurs de la paix, les invitèrent de bonne heure à cette conquête ;

Ils choisirent alors, confiants, d'aller sur ces chemins heureux, d'explorer cette civilisation nouvelle qui, parmi les leurs, avait fait des écrivains rebelles : Chraïbi, Khatibi, Laâbi, Khaïr-Eddine, Kateb Yacine, Fatéma Mernissi, Taos Amrouche, Moloud Feroun, Maammeri, Dib, Boudjedra, Mimouni, Assia Djebbar, pour ne citer que ceux-là,

Des antiques poètes bédouins d'Arabie, des anciens penseurs d'un empire musulman chimérique, en ruines, ils oublièrent les satires, les panégyriques, du souk Okad les joutes verbales et toutes les éternelles querelles, pour, de Baudelaire, humer ses maléfiques Fleurs, avec Musset veiller ses longues Nuits, d'extase et de plaisir mourir dans les romans de Balzac, de Flaubert, de Stendhal, de Maupassant ou de Zola.

Plus ils avançaient dans ces terres fertiles, prospères, plus ils comprenaient les constructions des phrases, le rythme des vers, les alittérations, les assonances, les figures de rhétorique, les tonalités, les registres, les formes verbales et leur concordance, les connotations et les nuances. Quant à leurs idées, elles devenaient au fur et à mesure plus libérales, et révoltés, insoumis, ils rompirent définitivement avec leur Moyen Âge, pour épouser l'esprit rationnel - devant les clichés, les préjugés, les croyances et la superstition de leur société - de La Raison qui toujours prône l'arbitrage. 

Puis, ils furent appelés à transmettre ces bagages, après un long parcours qui les avait complètement remodelés. À un public qui à ses convictions séculaires restait sourdement lié, comme l'enfant au sein qui l'abreuve de bon lait, tandis que les conservateurs les regardaient d'un mauvais oeil, que les détracteurs de la modernité pensaient que leur âme leur avait été volée... Que souvent, d'athées, d'hérétiques, de pervers furent taxés les professeurs de français par les esprits sclérosés, dans leur propre patrie étrangers, bannis, exilés.

Pendant des décennies, le derrière entre deux chaises, l'esprit déchiré entre authenticité et modernité, ils ont lutté contre l'obscurantisme, l'ignorance, colportant les principes de La Liberté, de La Fraternité, de L'Égalité, dans des régions qui n'avaient ni la même devise, ni la même foi, ni le même type de gouvernance. De même que jadis leurs grands-parents, sans comprendre pourquoi, blancs-becs partirent guerroyer en Indochine, pour le drapeau tricolore en piètres héros, pour périr pendant les Deux Guerres,

De même eux sacrifiaient leur culture, sans comprendre pourquoi les français n'enseignaient pas en retour la langue berbère dans leurs écoles, pourtant ceux-ci allaient et venaient chez-eux comme ils voulaient, alors qu'eux devaient mendier un visa pour de l'Hexagone franchir les frontières. 

Si arbitrage de La Raison il doit y avoir, si la réalité ressemblait à ce mirifique savoir, si après de houleux combats Les Lumières, Les principes de La Charte ont dressé l'inventaire, de L'Égalité entre les peuples esquissé une tentative salutaire, est-ce seulement pour que leur langue soit enseignée vidée de toutes ses valeurs, chargée de principes qui avec les décisions que prennent les dirigeants ne sont jamais correspondants ?

Comme si les peuples étaient aveugles, comme s'ils étaient bêtes, comme s'ils n'étaient pas en mesure de comprendre qu'à la vérité, avec leur vis-à-vis, ils ne sont pas égaux, que dans le monde actuel, il est difficile, voire impossible d'être indépendant...

Auteur: Talbi Mohamed

Info:

[ francophone ] [ non réciprocité ] [ frustration ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel