Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 24
Temps de recherche: 0.0426s

anti développement personnel

Tout va trop vite, tout s’accélère, tout se fait dans l’urgence et rien ni personne ne peut attendre. C’est le constat que chacun d’entre nous pourrait faire : on a perdu le sens des priorités, notre attention est sans cesse sous pression, le stress est désormais la chose du monde la mieux partagée.
Face à cela, fleurissent les conseils pour prendre le temps, prendre SON temps, celui qui nous revient, qui nous permet de suspendre le cours des choses et de hiérarchiser les tâches à accomplir, celui qui nous permet de nous retrouver et de remettre du sens à ce désordre.

Mais vous ne trouvez pas cela paradoxal ? Comment prendre du temps alors qu’on en manque ? Comment ajouter une chose à faire parmi tout ce que l’on a déjà à faire ? A quel moment de ma journée intercaler ma suspension du temps ?

Voici ma question : à quel moment de la journée vais-je pouvoir prendre le temps de suivre ma respiration ? A écouter les spécialistes de la méditation, souffler reviendrait littéralement à souffler. Et le faire provoquerait un changement non pas dans le déroulé de ma journée, mais dans la manière de l’appréhender.
Tout serait d’ailleurs une question de manière, de regard, d’attitude. Ne changez pas le monde et sa vitesse, changez plutôt votre rapport au monde et votre tempo. On a souvent tendance ainsi à opposer le temps du monde qui s’accélère à notre temporalité subjective, l’un serait objectif, non-modifiable, implacable, quand l’autre serait malléable, plastique, à nous donc de nous soumettre à l’accélération infernale ou de nous en émanciper, à nous de faire en sorte de suivre le rythme ou de le freiner, de souffler ou pas.

Mais là est le problème : c’est encore une chose à faire, encore une décision à prendre, encore une case à cocher, car il faut le dire : prendre son temps, résister au flot du monde, respirer, n’est pas seulement dur mais entretient l’illusion qu’on pourrait dominer la vitesse et le temps du monde… chose impossible.

Contre l’injonction à prendre son temps ou à le suivre parfaitement, voici donc ce que je propose, une troisième voie possible : être en retard.
Ni suspension du temps ni tempo millimétré, il faudrait développer toute une philosophie du retard, car seul le retard permet de tout faire tout en étirant le temps.
Etre en retard signifie bien que l’on a pris le temps, qu’on l’a étiré, qu’on en a profité, mais il ne signifie pas qu’on est dans l’illusion de l’arrêter.
Quand vous êtes en retard, vous regardez le temps filer, vous échapper, mais vous n’abdiquez pas, vous l’éprouvez.

Auteur: Internet

Info: https://www.franceculture.fr/emissions/le-journal-de-la-philo/le-journal-de-la-philo-du-vendredi-30-aout-2019

[ temps personnel ] [ gestion du temps ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

autoportrait

Je suis probablement ce qu’on appelle un décadent, et il doit exister en moi (comme définition extérieure de mon esprit) de ces scintillations tristes, d’une étrangeté postiche, qui cristallisent en mots imprévus une âme exotique et véhémente. Je sens que je suis ainsi fait, et que je suis absurde. C’est pourquoi je tente, pour imiter une hypothèse des auteurs classiques, de figurer tout au moins, par le biais d’une mathématiques expressive, les sensations décoratives de mon âme de remplacement. Il arrive un moment, au cours de mes méditations écrites, où je ne sais plus bien où se trouve le centre de mon attention - dans les sensations éparses que j’essaye de décrire, telles des tapisseries inconnues, ou bien dans les mots au milieu desquels, en voulant décrire ma description elle-même, je finis par m’embrouiller, m’égarer et voir d’autres choses par-delà. Je sens se former en moi des associations d’idées, de mots et d’images - tout cela de façon lucide et diffuse en même temps -, et je dis tout autant ce que j’éprouve que ce que je crois éprouver ; je ne distingue plus ce que mon âme me suggère des images qui fleurissent sur le sol où elle les a laissé choir ; je ne discerne même plus si le son d’un mot barbare, ou le rythme d’une phrase intercalée, ne m’éloignent pas du sujet déjà bien défini, de la sensation engrangée, et ne me dispensent pas ainsi de penser et de dire, comme des grands voyages faits pour me distraire. Et tout cela qui, avec la répétition, devrait me donner une impression de futilité, d’échec, de souffrance enfin, ne réussit qu’à me donner des ailes dorées. Dès que je me mets à parler d’images - et peut-être parce que j’allais en condamner l’abus -, voilà que naissent en moi d’autres images ; dès que je me dresse en moi-même pour refuser ce que je n’éprouve pas, me voilà précisément en train de l’éprouver, et mon refus lui-même devient une impression tout ornée de broderies ; lorsque, ayant finalement perdu confiance en mes efforts, je veux me laisser aller aux voies de traverse, voici qu’un terme bien classique, un adjectif spatial et sobre, me font voir clairement devant moi, avec l’éclat d’un rayon de soleil, la page écrite somnolentement, et les lettres nées de l’encre de ma plume sont alors une carte absurde aux signes magiques. Et je me dépose en même temps que ma plume, et je m’enveloppe dans la longue cape de l’inertie, adossé à mon siège, épars, lointain, intervallaire et succube, final comme un naufragé se noyant en vue d’îles merveilleuses, au sein même de ces mers dorées de mauve dont, sur des couches lointaines, il avait véritablement rêvé.

Auteur: Pessoa Fernando (Alv. de Campos)

Info: Le livre de l'intranquillité

[ introspectif ] [ langage ] [ onirisme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

individuation

Lorsque l’enfant réussit à se cuirasser contre la douleur et à faire preuve de rebond vital, de résilience, il va souvent suivre la pente du héros. Le héros dans tous les mythes a une origine princière, mais il est blessé, voire abandonné d’une façon ou d’une autre, et doit trouver un moyen de compenser son extrême fragilité en découvrant sa destinée qui est toujours en partie différente de celle de son groupe familial. Quitte à le retrouver bien des années plus tard lorsqu’il rentrera de ses épopées porteur du trésor, ou du remède, dont sa communauté a besoin. Le conte que mes analysants m’ont rappelé le plus souvent est bien sûr celui du "vilain petit canard" du poète danois Andersen. Une mère cane découvre parmi ses œufs un œuf d’allure bizarre. Puis c’est le caneton qui lui aussi paraît bizarre et, en tout cas, différent du reste de la couvée. Le pauvre oiseau grandit sans jamais se sentir à sa place, systématiquement les autres canards, les canards BCBG le snobent. Mais un jour, il aperçoit près d’un lac un groupe de magnifiques oiseaux blancs. Fasciné par la famille cygnes, il s’approche timidement, et pendant qu’il se penche sur la berge pour boire il rencontre dans l’eau son image. Lui aussi est devenu maintenant un bel oiseau lumineux.
En analyse on commence par rencontrer tous les aspects de soi-même par lesquels on s’est senti isolé, différent, incompris, inacceptable, récusé, humilié, vilain petit canard. Puis peu à peu en suivant le fil de l’âme et en découvrant un sens à sa vie, on résonne au diapason d’êtres de plus en plus nombreux, ornés des mêmes plumes scintillantes acquises dans la traversée de chaque épreuve. On ne naît pas cygne, on le devient…
Mais cet enfant héros, cet enfant cygne, s’il est souvent précoce, voire surdoué, dans certains domaines de la vie – arts, carrière, fortune, notoriété naissent souvent sous ses pas –, reste marqué par la fêlure des carences oubliées. Et c’est dans le domaine de l’engagement affectif qu’il est le plus fragile, soit qu’il tombe dans la passion amoureuse avec la force compulsive de l’addiction, soit qu’il se protège et se mure derrière une haie d’épines digne de la plus endormie des belles au bois dormant. Les sentiments oscillent entre la dépendance affective et l’anesthésie. Les scénarios de désillusion se répètent et ce n’est parfois que tard dans l’existence que notre héros/héroïne acceptera, à la faveur d’une rencontre, de se décongeler, de sortir son cœur du freezer pour que la vie maternelle le réchauffe doucement. [...]
Guérir de son passé, s’individuer, cela revient finalement à retrouver le grand souffle heureux de l’âme du monde. Celui qui habite le nouveau-né avant que les épreuves de la vie ne commencent. C’est trouver son propre souffle. Commencer, ou recommencer à aimer, quel que soit l’âge, quels que soient les hauts et bas de la vie. Redevenir enfant, renouer avec la confiance de l’enfant, mais chargé de toute la maturité conquise au travers de ces seuils initiatiques que sont les épreuves que chacun traversera à coup sûr. Ce n’est pas un hasard si toutes les voies de sagesse enseignent que l’éveillé est comme un petit enfant, simple et presque naïf, rien ne le distingue dans la rue des autres hommes, mais, comme dit joliment la tradition zen, partout où il va, autour de lui les cerisiers fleurissent.

Auteur: Colonna Marie-Laure

Info: Dans "Réenchanter l’Occident, vers un éveil de la conscience individuelle et collective"

[ symbolique ] [ révolution personnelle ] [ amor fati ] [ symptôme-sinthome ] [ psychanalyse ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel