Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 11
Temps de recherche: 0.0328s

anthropocentrisme

De fait, la division constitutive entre ce qui relève de la nature et ce qui relève de la société introduit chez les Modernes une sorte d’apartheid dans le traitement des être du monde qui empêche l’instauration d’un schème d’interaction possédant la puissance de synthèse et la simplicité d’expression des relations qui structurent les collectifs non modernes.

Auteur: Descola Philippe

Info: La composition des mondes.

[ séparation ] [ communauté-globalité ] [ historique ] [ rationalisme occidental ]

 
Commentaires: 3
Ajouté à la BD par miguel

tout marchandise

Définition formelle du capitalisme : un système économique et social qui réduit toute relation entre les hommes à la relation  commerciale intéressée, qui considère tout bien comme une marchandise, et toute valeur comme purement subjective pour l’individu. Ainsi défini, le capitalisme n’est pas réductible à un mode de production, ou à une forme d’interaction entre capital et travail : il est davantage un esprit, une manière de voir le monde. Chacun pense et agit en capitaliste quand il réduit toute activité à son intérêt personnel, et qu’il ne considère le monde qui l’environne que comme des marchandises à disposition pour satisfaire ses “besoins” 

Auteur: Travers Guillaume

Info: Capitalisme moderne et société de marché. L’Europe sous le règne du marché, La Nouvelle Librairie éditions, Coll. Longue Mémoire, 2020

[ libéralisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

moi

Le fait fondamental que nous apporte l’analyse [...] c’est que l’ego est une fonction imaginaire. [...]

Si l’ego est une fonction imaginaire, il ne se confond pas avec le sujet. Qu’est-ce que nous appelons un sujet ? Très précisément, ce qui, dans le développement de l’objectivation, est en dehors de l’objet.

On peut dire que l’idéal de la science est de réduire l’objet à ce qui peut se clore et se boucler dans un système d’interactions de forces. L’objet, en fin de compte, n’est jamais tel que pour la science. Et il n’y a jamais qu’un seul sujet – le savant qui regarde l’ensemble, et espère un jour tout réduire à un jeu déterminé de symboles enveloppant toutes les interactions entre objets. [...]

Pendant l’analyse, par exemple d’un comportement instinctuel, on peut négliger un certain temps la position subjective. Mais cette position ne peut absolument pas être négligée quand il s’agit du sujet parlant. Le sujet parlant, nous devons forcément l’admettre comme sujet. Et pourquoi ? Pour une simple raison, c’est qu’il est capable de mentir. C’est-à-dire qu’il est distinct de ce qu’il dit.

Eh bien, la dimension du sujet parlant, du sujet parlant en tant que trompeur, est ce que Freud nous découvre dans l’inconscient.

Dans la science, le sujet n’est finalement maintenu que sur le plan de la conscience, puisque le x du sujet dans la science est au fond le savant. [...] Freud au contraire nous montre qu’il y a dans le sujet humain quelque chose qui parle, qui parle au plein sens du mot, c’est-à-dire quelque chose qui ment, en connaissance de cause, et hors de l’apport de la conscience. [...]

Du même coup, cette dimension ne se confond plus avec l’ego.

Auteur: Lacan Jacques

Info: Dans le "Séminaire, Livre I", "Les écrits techniques de Freud (1953-1954)", éditions du Seuil, 1975, pages 301-302

[ discours de l'analyste ] [ discours scientifique ] [ différences ] [ sujet de l'inconscient ] [ subjectif-objectif ]

 
Mis dans la chaine
Commentaires: 2
Ajouté à la BD par Coli Masson

végétaux

Selon une nouvelle étude, les plantes peuvent réellement "écouter" ce qui se passe autour d’elles, notamment entendre le bourdonnement des abeilles et produire un nectar plus sucré en réponse, pour attirer les insectes volants. Et les fleurs sont littéralement leurs "oreilles".

Sur la base d’observations effectuées sur des primevères du soir (Oenothera drummondii), l’équipe responsable de la nouvelle étude, a découvert qu’en quelques minutes à peine après avoir détecté les ondes sonores des ailes d’abeilles voisines à travers les pétales de fleurs, la concentration de sucre dans le nectar de la plante avait augmenté de 20%. De plus, les fleurs semblaient même capables d’ignorer certains bruits de fond nuisants, tel que le vent.

Selon les scientifiques, cette capacité pourrait bien conférer à certaines plantes un avantage évolutif, en maximisant de ce fait leurs chances de disséminer le pollen. "Nos résultats montrent pour la toute première fois que les plantes peuvent réagir rapidement aux sons des pollinisateurs d’une manière écologiquement pertinente", écrivent les chercheurs, de l’Université de Tel-Aviv en Israël.

Ils ont alors effectué des expériences en se basant sur l’hypothèse suivante : les plantes peuvent effectivement capter les vibrations provoquées par les ondes sonores, ce qui pourrait en partie expliquer la raison pour laquelle les fleurs de nombreuses plantes ont la forme d’une cuvette (cela leur permettrait donc de mieux capturer les sons).

Au cours de plusieurs expériences impliquant plus de 650 fleurs d’onagre, la production de nectar a été mesurée en réponse au silence, en réponse à un son à trois niveaux de fréquence, ainsi qu’à l’enregistrement du bourdonnement des abeilles.

L’enregistrement du bourdonnement des abeilles, ainsi que les sons de basse fréquence (qui correspondaient étroitement à l’enregistrement des abeilles), ont suffi pour provoquer la modification de la composition du nectar, et cela en trois minutes seulement. Par contre, le silence et les sons de haute et moyenne fréquence n’ont eu aucun effet sur les plantes.

L’équipe a également tenté ces expériences avec des plantes dont certains pétales avaient été enlevés. Résultat : aucun changement dans la production de nectar n’a été notée, indiquant ainsi que ce sont bien les fleurs qui font office "d’oreilles" !

Ces tests de laboratoire ont été complétés par des observations effectuées sur des fleurs à l’état sauvage. "Les plantes ont beaucoup d’interactions avec les animaux, et les animaux font et entendent des bruits", a déclaré l’un des membres de l’équipe, Lilach Hadany. "Il serait inadapté pour les plantes de ne pas utiliser le son pour la communication. Nous avons essayé de faire des prédictions claires pour tester cela et avons été assez surpris lorsque cela a fonctionné", a ajouté Hadany.

Pour les plantes, produire un nectar plus sucré pourrait avoir comme conséquence que l’abeille reste sur la fleur plus longtemps (et se nourrisse plus longtemps de ladite fleur), ce qui augmenterait ses chances de récolter du pollen. Et pour la plante, les chances de voir d’autres insectes revenir sur les fleurs de la même espèce à l’avenir, sont également plus nombreuses. Il faut cependant que cette poussée de douceur sucrée soit parfaitement synchronisée, pour que les fleurs en vaillent la peine et que les abeilles s’y arrêtent. C’est exactement ce qui semble se produire.

À l’heure actuelle, le travail des chercheurs n’a pas encore été revu par des pairs, et nous ne savons pas exactement comment les vibrations sont décodées par les plantes. Nous ne savons pas non plus comment ces vibrations sont devenues un élément déclencheur de la production de nectar plus sucré. Mais, dans tous les cas, il s’agit d’un premier pas pour le moins intriguant dans le domaine des études concernant la compréhension des plantes et de leurs réactions face aux sons qui les entourent. "Certaines personnes peuvent se demander comment font les plantes pour entendre, ou sentir ? J’aimerais que les gens comprennent que l’audition n’est pas seulement pour les oreilles", explique Marine Veits, une des auteures de l’étude.

Quant à la suite, les chercheurs souhaitent comprendre comment les plantes réagissent à d’autres sons et à d’autres animaux (y compris à l’Homme).

Auteur: Internet

Info: https://trustmyscience.com. 21 janv. 2019. Sources : bioRxiv, National Geographic

[ musique ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Pour la première fois, des physiciens observent des tourbillons d’électrons !

À l’instar de ce tourbillon d’eau, il peut exister des tourbillons d’électrons sous certaines conditions.

Des chercheurs du MIT aux États-Unis et de l’Institut Weismann en Israël ont réussi à apercevoir ce phénomène pour la première fois ! Prévu depuis de longues années, mais jamais observé, ce comportement caractéristique des fluides pourrait servir à la mise au point de systèmes électroniques à très basse consommation.

Qu’est-ce que des tourbillons d’électrons ?

Les tourbillons d’électrons observés par les scientifiques se comportent comme des fluides. Un fluide est constitué de particules pouvant s’écouler librement et peut être un liquide, un gaz et un plasma.

Un fluide est caractérisé par une grande mobilité de ses molécules. Celles-ci peuvent se mouvoir sans être limitées à une position précise comme dans les solides. Bien que tous les fluides soient compressibles, les gaz le sont beaucoup plus que les liquides et les plasmas. Les molécules des fluides sont maintenues entre elles par des forces d’interactions faibles. Elle sont appelées forces de Van der Walls qui assurent leur cohésion au sein du fluide.

L’eau reste le fluide le plus abondant sur Terre capable de s’écouler librement pour former les ruisseaux, les rivières et de vastes étendues d’eau. Telles que les lacs, les mers et les océans par exemple. Ces masses d’eau sont sujettes à la formation de courants, de vagues et de tourbillons.

On pourrait se demander si un courant électrique constitué d’un ensemble d’électrons en mouvement peut se comporter comme un fluide. Dans des conditions normales, les électrons qui sont infiniment plus petits que des molécules d’eau sont influencés par leur environnement. Par exemple le métal qu’ils traversent. Et  ils ne se comportent pas comme un fluide.

Cependant, la théorie prévoit depuis bien longtemps qu’à des températures très basses proches du zéro absolu (-273 °C), les électrons peuvent s’écouler à la manière d’un fluide pour autant que le matériau dans lequel ils circulent soit pur et sans aucun défaut. Jusqu’à aujourd’hui, cette théorie n’avait jamais été observée.

Les électrons peuvent former un fluide visqueux

Normalement, lorsque des électrons circulent au sein d’un matériau conducteur tel qu’un fil de cuivre, ou dans un matériau semi-conducteur comme le silicium, leur trajectoire est influencée par la présence d’impuretés au sein du matériau. Les vibrations des atomes qui composent le matériau conducteur ou semi-conducteur influencent aussi la trajectoire et le déplacement des électrons. Chaque électron se comporte alors comme une particule individuelle.

Par contre, dans un matériau d’une très grande pureté, dans lequel toutes les impuretés auraient été supprimées, les électrons ne se comportent plus comme des particules individuelles. Ils agissent alors comme des particules quantiques, chaque électron captant les comportements quantiques de ses congénères. Les électrons se déplacent ensemble et forment ce que les physiciens appellent un fluide électronique visqueux.

Il y a quelques années des chercheurs de l’université de Manchester en Angleterre avaient déjà prouvé que des électrons étaient capables de se comporter en fluide. Ceci en réalisant une expérience avec du graphène. Ce matériau est un simple feuillet constitué uniquement d’atomes de carbone disposés suivant un motif hexagonal et de l’épaisseur d’un atome. En faisant passer un courant électrique dans un mince canal "creusé" dans ce matériau, ils se sont rendu compte que la conductance des électrons était bien supérieure à la conductance des électrons libres. Les électrons s’écoulaient donc comme un fluide régulier.

L’une des caractéristiques les plus étonnantes d’un fluide comme l’eau est sa capacité à produire un tourbillon lorsqu’elle s’écoule. Les chercheurs du MIT et de l’institut Weismann ont tenté de découvrir si les électrons peuvent aussi s’écouler sous la forme de tourbillons.

Pour le vérifier, les chercheurs ont utilisé du ditelluride de tungstène de formule chimique WTe2, un composé semi-métallique extrêmement pur et présentant des propriétés quantiques lorsqu’il est épais de seulement un atome. Pour effectuer une comparaison avec un métal ordinaire, ils ont utilisé de fines paillettes d’or.

Ils ont gravé dans les fines paillettes de ditelluride de tungstène et dans celles d’or, un fin canal relié, au niveau de la moitié du canal, à deux chambres circulaires situées de part et d’autre du canal. Ces deux systèmes ont ensuite été placés à une température de -268,6 °C, proche du zéro absolu, puis les canaux ont été soumis au passage d’un courant électrique.

En réalisant des mesures en différents points, les chercheurs se sont rendu compte que dans l’or, le flux d’électrons se dirigeait toujours dans la même direction, que ce soit dans les deux chambres adjacentes et dans le canal.

Par contre, dans le ditelluride de tungstène, les électrons se sont mis à former des tourbillons dans les deux chambres circulaires en inversant leur direction. Puis sont revenus dans le canal central.

Ces résultats très encourageants sont probablement le signe d’un nouveau type d’écoulement hydrodynamique dans des cristaux très fin  d’une grande pureté. Cela ouvre la voie à la création de nouveaux dispositifs électronique nécessitant de faibles puissances de fonctionnement.

Auteur: Internet

Info: https://www.science-et-vie.com, 6 fév 2023, Source, revue Nature, juillet 2022 : Aharon-Steinberg, A., Völkl, T., Kaplan, A. et al.,”Direct observation of vortices in an electron fluid », Nature, 607, 74–80 (2022), https://doi.org/10.1038/s41586-022-04794-y

[ fermion(s) ] [ aquosité ] [ hydrodynamique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

post-darwinisme

Internet et l’informatique en général ont joué un rôle permanent dans l’histoire de la mémétique, par exemple en faisant accepter l’idée que des codes non biologiques (typiquement, les virus informatiques) puissent avoir une reproduction autonome. La résolution de problèmes industriels a rebaptisé mémétiques les algorithmes génétiques. Mais surtout, le tissu social de l’internet, plus maillé de jour en jour, constitue une deuxième couche de lien social, d’interactions et de contenu. Il prend une telle épaisseur qu’il abrite sa propre faune. Des contenus – humoristiques, effrayants ou engagés – prolifèrent à une vitesse telle qu’on ne pourrait plus les contrôler sans "fermer" Internet. On appelle cela Internet memes parce que, depuis le début, la mémétique et la web culture sont consanguines. Le court-circuit linguistique ne s’est pas fait attendre, bien que personne ne l’ait anticipé : les "mèmes Internet" sont devenus mèmes par la grâce simplificatrice des médias grand public. Le nom sans objet a fusionné avec l’objet sans nom. Malheureusement, on se polarise trop sur les contenus sémantiques d’Internet, alors que l’on devrait aussi s’intéresser à la structure procédurale qui les sous-tend, en étudiant par exemple les puissants mèmes aux implications politiques et sociétales lourdes que sont Share (partagez du contenu), Like (dites que vous aimez) et Report (signaler un abus) !

Au fil des années, la communauté des méméticiens avait commencé à "tuer le père" en se détachant progressivement de Dawkins, de son analogie trop simple, éloquemment nommée "camisole intellectuelle" (Wallace, 2013). Mais voici qu’au festival de Cannes 2013, le succès des Internet memes fait sortir du bois "l’athée le plus célèbre du monde", avec un vidéo-clip taillé selon les codes visuels de YouTube. La nouvelle "petite phrase" de Dawkins est un pied de nez à toute la science sérieuse : "L’idée même de mème a elle-même muté et évolué dans une nouvelle direction".

Le jeu de mot "mutations are designed not random" (les mutations sont créées, pas aléatoires) est délibérément contestable : il ouvre une conception nouvelle du rapport entretenu par les variantes culturelles avec le terrain humain. La créativité et l’intention de l’artiste y font partie des conditions de naissance de la solution créative, sont le générateur de hasard.

Si exaspérant soit-il, Dawkins joue son rôle de diva en "levant des fonds" : il utilise le modèle économique de demain, celui qui convertit l’attention captée en revenus. Grâce aux Internet memes, il fait d’une pierre trois coups. Car pour une nouvelle science, il ne faut pas seulement de nouvelles lunettes et beaucoup de temps de cerveau, mais aussi un nouveau champ de données, une espèce inconnue, un nouveau continent. Autrement, on se heurte au reproche classique : "mais pourquoi aurait-on besoin de vos nouvelles lunettes, alors que celles que nous fabriquons déjà fonctionnent très bien ?" L’ennui, c’est que les vieilles lunettes ne voient pas bien ce qui est en train de se passer parce que cela va trop vite.

Une autre forme de science est nécessaire pour demain

On sait dire aujourd’hui "à quelle question la mémétique apporte une réponse". Les questions apparaissent chaque jour un peu plus clairement : pourquoi les phénomènes de société échappent-ils à toute prévision et plus encore à tout contrôle ? Pourquoi même les bonnes nouvelles sont-elles surprenantes ? Qu’est-ce qui influence les influenceurs ? Jusqu’où tel bouleversement va-t-il se propager ? Est-il normal que les objets nous utilisent et communiquent entre eux ? Aujourd’hui, la difficulté de prévoir, l’irruption permanente et encouragée de la nouveauté, voire de la disruption, ainsi que l’explosion des données massives (big data) appellent les compétences sociocognitives des "tendanceurs". Pensée rapide, échanges en réseau, erreur autorisée, remise en cause permanente et preuve par l’action. La mémétique rejoint cet arsenal des chasseurs de tendances parce qu’elle voit le monde avec d’autres lunettes, des lunettes qui savent que l’on regarde du vivant autoorganisé et non plus du "construit par l’homme selon des plans". Du coup ces lunettes nous rendent davantage capables de voir ce qui change rapidement et d’en percevoir les évolutions possibles. Aujourd’hui, la mouvance de l’économie collaborative se propose de mettre en partage le "code source" d’innovations citoyennes directement prêtes à être  expérimentées. 

Il devient impossible de penser seul ou en petits groupes centrés sur l’allégeance à un seul paradigme. Les sujets d’études offerts aux sciences de l’homme par le monde contemporain affolent par leur nombre, leur diversité et leur vitesse de renouvellement. De même, la connaissance se fabrique partout en même temps, dans un tissu ouvert constitué de personnes et de machines. La conscience même du sujet connecté n’est plus la même que celle du sujet isolé. La mémétique peut fournir un ensemble de métaphores agissant à la manière de passerelles interdisciplinaires, telles que la vision des solutions comme chemins entre états instables, celle du stockage partiel des souvenirs dans les objets, ou celle de l’ADN organisationnel comme fonctionnement implicite partagé des collectifs.

Une première condition est le recentrage indispensable de l’observation, du mème abstrait vers la solution concrète que l’on voit se reproduire et évoluer.

Une autre serait de mettre en lien souplement, autour de ce concept général de solutions, toutes les observations et réflexions – sans aucune contrainte disciplinaire – sur la manière dont nos actions s’inspirent et se déclenchent à partir des corps, des lieux et des objets, se répètent, sont bien ou mal vécues en commun, sont mémorisées, fabriquent des structures, produisent des récits…

Mais avant tout, la plus importante est de reconnaître la mémétique pour ce qu’elle est : un projet collaboratif, spontané, a-disciplinaire, mondial, qui nous équipe d’un regard neuf sur ce que la vie humaine est en train de devenir… un regard qui change jusqu’à notre conception de nous-mêmes. La mémétique ne mourra pas tant que ce travail restera à faire. Elle ne s’effacera pas, si ce n’est dans un projet plus grand qui réponde aux mêmes nécessités et partage la même ouverture.

Auteur: Jouxtel Pascal

Info: In Cairn infos, reprenant Hermès, La Revue 2013/3 (n° 67), pages 50 à 56

[ distanciation ] [ recul épistémologique ]

 

Commentaires: 0

Ajouté à la BD par miguel

illusionnisme

Le monde de la psychologie appliquée est un univers particulier qui se compose d’une multitude de techniques partagées avec le monde du mentalisme et ne forme avec lui en fait, qu’une seule et même entité. Un mentaliste est donc quelqu'un qui a exploré la psychologie assez profondément pour en extraire les techniques utiles, stratégies d’interaction choisies et appliquées avec soin et dans un but précis.

Nous vous déclinons ici 4 techniques de mentalisme très utiles dans un contexte conversationnel.

1) Le Yes set (théorie de l’engagement)

C'est un des piliers de l’influence, issu de la vue systémique de la persuasion développée par  Robert B. Cialdini dans les années 1980. Il est facilement vérifiable et très intuitive, stipule que le fait d’habituer les gens à effectuer une série d’actions les rend beaucoup plus susceptibles d’en effectuer par la suite. Cette idée "d’habituer" les gens prend ses sources directement dans le principe du conditionnement, que nous verrons plus en détail dans un prochain point. Cialdini explique calmement que l’engagement va de pair avec le principe de la cohérence psychologique, qui dit (en gros) que "puisque j’ai fait ceci, je devrais faire cela". Le cerveau cherchant constamment à rationaliser le monde pour mieux le comprendre, il a horreur de l’incohérence. D’où son classement en tant que technique de mentalisme de haut niveau.

2) L’Ancrage émotionnel

Un des effets stupéfiant du monde de la psychologie après l’effet miroir. Cette technique de mentalisme exploitée instinctivement par l’homme depuis des siècles. Mais il aura fallu attendre Ivan Pavlov, précurseur du comportementalisme, pour modéliser le processus de conditionnement au grand jour. En gros : Vous donnez des bonnes croquettes à votre chien, vous agitez une clochette, le chien mange les croquettes. Vous faites ça pendant une semaine, plusieurs fois par jour. A chaque fois que le chien mange, il entend le son des clochettes. Au bout d’une semaine, vous agitez les clochettes mais ne servez plus à manger… Et le chien salive. Vous recommencez des jours plus tard, le chien salive toujours. Que s’est-il passé ? Le chien a associé le son des clochettes à la nourriture et au démarrage de sa digestion. Il a été conditionné à saliver et à penser à sa nourriture au son des clochettes. Et bien sûr ça marche aussi pour les humains. 

Le processus d’ancrage a été largement amélioré et repris dans des domaines aussi divers que la publicité, l’humour, le storytelling, la thérapie, et est à la base du fonctionnement de l’hypnose. Parce que oui, l’ancrage fonctionne AUSSI avec les émotion et est bien sûr très exploité comme technique de mentalisme. 

En combinant  les domaines ci-dessus on "fabrique" la technique en piochant un peu partout et en l’adaptant à la situation. Il faut donc créer une atmosphère agréable et renforcer un lien émotionnel en utilisant la technique de l’ancrage émotionnel ?

3) Hypnose conversationnelle et suggestion d’idées

Nous sommes ici dans l’antichambre de la magie : cette technique de mentalisme, consiste ni plus ni moins en une maîtrise millimétrée du langage et des mots. Et ce contrôle, cette absolue suprématie sur l’histoire que votre cerveau articule, peut donner naissance à des résultats tout-à-fait remarquables. Les objectifs de l’hypnose conversationnelle sont principalement les deux suivants : 

- Éveiller des émotions chez votre interlocuteur en adoptant une forme colorée et percutante de discours

- Communiquer des suggestions d’idées en utilisant les mécanismes des sous-entendus.

Si ces buts conversationnels sont les mêmes que ceux définis dans l’hypnose thérapeutique, leur articulation est différente. On préférera une communication plus fine, car dans l’hypnose conversationnelle, l’environnement est rarement dévoilé (difficile d’être persuasif si on annonce d’emblée qu’on va être persuasif).

Au sein même de l’hypnose conversationnelle, deux techniques de mentalisme sont très souvent exploitées :

- La métaphore sous toutes ses formes (il y a plusieurs niveaux de complexité), qui permet de se projeter dans un cadre extérieur pour être libre de jouer avec les idées souhaitées (on appellera ce travail une communication "indirecte")

- La suggestion directe camouflée, qui permet d'instiguer des évocations agissantes dans le discours avec une dextérité très complexe à maîtriser. L’intonation des mots, la maîtrise des ancrages émotionnels et l’imagination y sont pour beaucoup.

4) La Synchronisation (ou l’effet miroir)

Le mystère et les incroyables résultats associés à l’effet miroir font partie des causes de la nécessité absolue de communiquer les techniques de mentalisme publiquement. L’effet miroir est le sujet d’innombrables recherches de psychologie sociale depuis au moins un demi-siècle. Comment ça marche ? C’est simple. En effet : si vous ressentez une connexion émotionnelle forte avec les gens qui vous ressemblent et qui s’impliquent aussi dans votre relation, c’est parce que vous fonctionnez souvent en "synchronisation" :

Vous pensez souvent aux mêmes choses et aux mêmes moments. Vous utilisez le même langage pour communiquer, les mêmes expressions, parfois le même ton, et les mêmes gestuelles. Vous prenez ou partagez choix et opinions similaires. Vous riez souvent de concert, il vous est plus facile de partager les émotions de l’autre (empathie affective). Etc.

Voilà donc l’effet "miroir", en référence à l’activation des fameux neurones éponymes de nos cerveaux. Essayez de remarquer les mécanismes de synchronisation/désynchronisation entre deux (ou plusieurs, mais c’est plus avancé) personnes autour de vous. Qui se synchronise sur qui ? Essayez de remarquer les conséquences de ces synchros/désynchros sur la qualité de la conversation et sur l’influence des participants… Gare aux surprises. 

Où cela mène-t-il de connaitre ou apprendre plus de techniques de mentalisme ?

Comprendre et développer l’univers de la psychologie appliquée, composée d’une multitude de techniques de mentalisme, vous permettra de les repérer et vous en protéger si elles sont utilisées avec de mauvaises intentions. Cela vous permettra aussi de savoir les utiliser et les améliorer, ce qui peut arriver si vous souhaitez renforcer un lien émotionnel, dynamiser un groupe, ou tout autre objectif.

Auteur: Internet

Info: https://humanize-project.com/atmosphere/4-techniques-mentalisme/

[ manipulation ] [ comédie ] [ rapports humains ] [ pnl ] [ programmation neurolinguistique ] [ effet Barnum ]

 
Commentaires: 8
Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel