Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 42
Temps de recherche: 0.0461s

métaphysique

Finalement certains témoins disent être entrés dans cette lumière. Ce stade est alors vécu comme un retour, une union avec une matrice originelle. La relation avec la lumière est le point culminant de l'expérience, et ce sont les témoins qui connaîtront cette étape qui seront par la suite les plus bouleversés. Là encore, on est bien au delà de l'émotion :
"... Je me retrouve baigné dans une sorte de lumière blanche qui recouvre tous les murs. Les murs sont d'une blancheur incroyable et ils semblent se fondre en moi. Cette lumière n'est pas aveuglante, mais elle est d'une blancheur extrême, reposante, totalement apaisante, je ne ressens aucune émotion, ni peur, ni joie, mais une impression de sérénité totale. Je fonds dans cette lumière, je suis en elle et elle est en moi, nous ne faisons qu'un..." (G., électrocution)
A partir de là, les scénarios se diversifient beaucoup, mais certains thèmes reviennent fréquemment. Non seulement beaucoup de témoins racontent s'être sentis "aimés" par cette lumière de manière inconditionnelle, mais une fois "à l'intérieur", certains rapportent également avoir accédé à la Connaissance universelle, ayant "toutes les réponses" sans même avoir besoin de formuler les questions. Pourtant à leur retour, les expérienceurs auront tout oublié, comme si notre conscience ordinaire n'était pas capable de contenir toute cette connaissance. Mais ils se souviennent... qu'ils ont su. D'autres auront accès à un environnement extraordinaire, d'une beauté "inimaginable". Il peut s'agir d'une ville ou d'un paysage, mais toujours beaucoup plus beau que ce que l'on connait sur terre avec, par exemple, des couleurs qui nous sont totalement inconnues.
Il est extrêmement rare de trouver ces cinq phases (1. Paix et sensation de bien-être, 2. La décorporation, 3. Le tunnel, 4. La lumière, 5, L'entrée dans la lumière) réunies dans une seule NDE. Souvent, il n'y en aura que deux ou trois, voire parfois qu'une seule. Toutes les combinaisons sont possibles, mais les premières phases de l'expérience sont beaucoup plus courantes que les dernières. Ainsi, l'entrée dans la lumière est une étape qui demeure relativement rare, puisqu'elle ne concerne qu'environ 10% des personnes qui ont vécu une NDE.

Auteur: Déthiollaz Sylvie

Info: Etats modifiés de conscience

[ mort imminente ]

 

Commentaires: 0

biogenèse

La durée des réponses épigénétiques qui sous-tendent l'héritage transgénérationnel est déterminée par un mécanisme actif reposant sur la production de petits ARN et la modulation de facteurs ARNi, dictant si les réponses ARNi* ancestrales seroent mémorisées ou oubliées.

Selon l'épigénétique - l'étude des changements héritables dans l'expression des gènes qui ne sont pas directement codés dans notre ADN - nos expériences de vie peuvent être transmises à nos enfants et aux enfants de nos enfants. Des études menées sur des survivants d'événements traumatiques suggèrent que l'exposition au stress peut effectivement avoir des effets durables sur les générations suivantes.

Mais comment exactement ces "souvenirs" génétiques sont-ils transmis ?

Une nouvelle étude de l'université de Tel Aviv (TAU), publiée la semaine dernière dans Cell, met en évidence le mécanisme précis qui permet d'activer ou de désactiver la transmission de ces influences environnementales.

Jusqu'à présent, on supposait qu'une dilution ou une décroissance passive régissait l'héritage des réponses épigénétiques", a déclaré Oded Rechavi, PhD, de la Faculté des sciences de la vie et de l'École de neurosciences Sagol de l'UAT. "Mais nous avons montré qu'il existe un processus actif qui régule l'héritage épigénétique au fil des générations".

Les scientifiques ont découvert que des gènes spécifiques, qu'ils ont nommés "MOTEK" (Modified Transgenerational Epigenetic Kinetics), étaient impliqués dans l'activation et la désactivation des transmissions épigénétiques.

"Nous avons découvert comment manipuler la durée transgénérationnelle de l'héritage épigénétique chez les vers en activant et désactivant les petits ARN que les vers utilisent pour réguler ces gènes", a déclaré Rechavi*.

Ces commutateurs sont contrôlés par une interaction en retour entre les petits ARN régulateurs de gènes, qui sont héritables, et les gènes MOTEK qui sont nécessaires pour produire et transmettre ces petits ARN à travers les générations.

Cette rétroaction détermine si la mémoire épigénétique se transmet ou non à la descendance, et combien de temps dure chaque réponse épigénétique.

Les chercheurs prévoient maintenant d'étudier les gènes MOTEK pour savoir exactement comment ces gènes affectent la durée des effets épigénétiques, et si des mécanismes similaires existent chez l'homme.

 Rechavi et son équipe avaient précédemment identifié un mécanisme d'"héritage de petits ARN" par lequel des molécules d'ARN produisaient une réponse aux besoins de cellules spécifiques et comment elles étaient régulées entre les générations.

"Nous avons précédemment montré que les vers héritaient de petits ARN suite à la famine et aux infections virales de leurs parents. Ces petits ARN aidaient à préparer leur progéniture à des épreuves similaires", a déclaré le Dr Rechavi. "Nous avons également identifié un mécanisme qui amplifiait les petits ARN héréditaires à travers les générations, afin que la réponse ne soit pas diluée. Nous avons découvert que des enzymes appelées RdRPs sont nécessaires pour recréer de nouveaux petits ARN afin de maintenir la réponse dans les générations suivantes."

On a constaté que la plupart des réponses épigénétiques héritables chez les vers C.elegans ne persistaient que pendant quelques générations. Cela a donné lieu à l'hypothèse que les effets épigénétiques s'effaçaient simplement au fil du temps, par un processus de dilution ou de désintégration.

"Mais cette hypothèse ne tenait pas compte de la possibilité que ce processus ne s'éteigne pas tout bonnement, mais qu'il soit au contraire régulé", a déclaré Rechavi, qui, dans cette étude, a traité des vers C.elegans avec de petits ARN qui ciblent la GFP (protéine fluorescente verte), un gène rapporteur couramment utilisé dans les expériences. "En suivant les petits ARN héréditaires qui régulaient la GFP - qui "réduisaient au silence" son expression - nous avons révélé un mécanisme d'héritage actif et réglable qui peut être activé ou désactivé."

Auteur: Internet

Info: https://www.kurzweilai.net/onoff-button-for-passing-along-epigenetic-memories-to-our-children-discovered. 29 mars 2016. *ARN interférant

[ bio-machine ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

mass medias

"Schizophrénie culturelle" : Les médias américains ne rapportent plus de faits, mais font appel aux émotions

Aux États-Unis, les médias grand public ont évolué au cours des dernières décennies. Une "schizophrénie culturelle" qui déchire les États-Unis.

Sur la base des conclusions d'une étude de la RAND Corporation, les médias grand public sèment activement la discorde dans la société américaine, déclare à RT le journaliste Chris Hedges, lauréat de nombreux prix. Les médias s'efforcent de faire en sorte que deux parties se haïssent l'une l'autre au lieu de rapporter les faits, et la majorité du public n'est pas au courant et se moque que son esprit soit manipulé via ses propres réactions émotionnelles.

L'étude, publiée par RAND cette semaine, indique qu'entre 1987 et 2017, le contenu des nouvelles est passé du reportage événementiel et contextuel à une couverture "plus subjective, reposant davantage sur l'argumentation et le plaidoyer, et comportant davantage d'appels émotionnels". Selon RT, les émissions d'information diffusées aux heures de grande écoute et le journalisme en ligne ouvrent la voie à cette évolution vers une rhétorique émotionnelle et haineuse. Le groupe de réflexion financé par le gouvernement a conclu que la presse écrite l'avait également remarqué.

Cela contribue à ce que RAND a nommé "Décadence de la Vérité". Il s'agit de s'éloigner des faits et de l'analyse dans le discours public.

Hedges affirme que la détérioration des médias grand public est "bien pire" que ne le suggère le rapport RAND. Et il n'est pas le seul dans cette évaluation.

Le journaliste américain Matt Taibbi dit que le résultat de cette décadence journalistique et de cette peur émotionnelle est une addiction publique à la haine mutuelle.

Les Américains sont devenus accros aux nouvelles qui renforcent leurs préjugés, et c'est ainsi qu'elles ont délibérément été mises en place. La seule chose que les gens entendent lorsqu'ils regardent les nouvelles, ce sont des histoires conçues spécialement pour fabriquer de l'indignation, vous faire détester l'autre côté et alimenter la dépendance à la colère.

Les médias grand public ont réussi à accaparer la colère et la haine de l'Américain moyen. L'idée que les médias puissent tirer profit des faits a été perdue depuis longtemps.

"La structure commerciale qui fonda les anciens médias a disparu et a éviscéré le journalisme dans le pays parce qu'il n'est pas durable. Nous l'avons vu avec l'effondrement des petites annonces, qui représentaient 40 p. 100 des revenus des journaux. Ce n'est plus viable sur le plan économique ", a déclaré M. Hedges.

Il devient de plus en plus difficile de distinguer les faits et les opinions, et les gens croient ce qu'ils veulent croire, explique Mr Hedges. "Nous avons passé des années à regarder CNN et MSNBC promouvoir cette théorie de conspiration selon laquelle Trump était un agent du Kremlin, par exemple... C'était de la foutaise, mais ça attirait les téléspectateurs", ajoute Hedges. Et, si cela ne vous dérange pas que votre QI baisse, allumez MSNBC quelques minutes. Il est probable que vous entendrez encore quelques trucs sur le Russiagate que le public reste en colère.

Aujourd'hui, les gens peuvent revendiquer leurs émotions comme des faits sans avoir à considérer ceux qui ne sont pas d'accord avec eux.. Ce qui permet de maintenir les disputes au sein de la population, pendant que les politiciens volent plus d'argent, enlèvent de la liberté et s'en tirent comme ça.

"Tout ça crée une schizophrénie culturelle " dit M. Hedges, faisant remarquer qu'il l'avait observé lors de l'effondrement de la Yougoslavie dans les années 1990. À l'époque, les médias suscitaient des antagonismes et des haines entre groupes ethniques. Des choses similaires se produisent en ce moment aux États-Unis, où "les médias de droite diabolisent Bernie Sanders et Barack Obama en les comparant à Hitler et les médias de gauche qualifient tous les partisans de Trump de racistes et de déplorables" dit Hedges. "Tout cela crée une fragmentation sociétale et des discordes " souligne Hedges à RT.

Auteur: Internet

Info: www.zerohedge.com, 17 mai 2019

[ médias de masse ] [ intoxication ]

 

Commentaires: 0

Ajouté à la BD par miguel

captage de l'attention

Sur le plan linguistique, précisons aussi, à la suite de C. Schnedecker (2011 : 23-45) faisant un état de la question, que la saillance peut se manifester de façon formelle ou "ontologique" (par le biais de la disposition typographique ou de la prosodie, par exemple), mais aussi de façon cognitive, faisant alors appel à la sémantique lexicale ou à des facteurs discursifs (ces derniers étant hétérogènes).

Cette linguiste distingue en outre une saillance perspectivale, reposant sur un principe d’iconicité puisque l’ordre des unités grammaticales (et donc l’agencement syntaxique) est supposé refléter ce qui est au premier plan, ou encore à l’arrière-plan, dans la perspective du locuteur. Notons que la notion de saillance ontologique est associée à des acceptions différentes selon les auteurs : parfois relative au statut conféré aux mots eux-mêmes (comme le rappelle C. Schnedecker), elle est par ailleurs considérée comme liée aux éléments extralinguistiques ou, du moins, aux concepts qui leur sont associés, et tel est notamment le cas chez H.-J. Schmid (2007 : 120).

Concernant la saillance liée aux paramètres syntaxiques, on rappellera l’importance des travaux de R. W. Langacker (1991 : 301). L’auteur mentionne l’importance des rôles syntaxiques, soulignant que le sujet, tout d’abord, puis l’objet, sont perçus comme les éléments les plus saillants (focal participants) d’une proposition. Ils sont en outre à relier à l’opposition trajector/ landmark (1987 : 217) traduisant le fait qu’un élément est mis davantage en avant (rôle de trajector) que les autres. Ces notion de trajector et landmark peuvent en outre être perçues comme des manifestations spécifiques de ce que L. Talmy (2000 : 311-44) appelle figure et ground, sachant que le premier terme réfère à l’élément le plus saillant, qui se détache sur un fond (désigné par ground). Selon cet auteur également, ce sont les structures grammaticales qui contrôlent la distribution de l’attention portée aux différentes entités présentes.

En lien avec son rôle syntaxique, le rôle sémantique d’une entité est également déterminant, comme l’avait déjà montré C. Fillmore (1968 ; 1977 : 78). Dans la lignée de la grammaire générative et transformationnelle, Fillmore applique la notion de cas aux structures profondes qui se voient réalisées syntaxiquement en structure de surface. Il propose ainsi une base sémantique et universelle des rôles thématiques. Selon l’auteur, il existe une hiérarchie de pertinence en ce qui concerne la sélection des rôles, concernant celui de sujet notamment. Cette hiérarchie peut être représentée ainsi : agent > instrument > patient.

Si l’événement met en scène un agent, celui-ci sera réalisé en position de sujet. S’il n’y a pas d’agent, ce sera l’instrument, ou encore le patient si l’instrument n’est pas réalisé. La grammaire des cas prévoit donc une correspondance relative entre les rôles sémantiques (profonds) et les réalisations syntaxiques (de surface). Notons par ailleurs que la relation entre cette hiérarchie liée aux cas et la notion de saillance est établie par l’auteur, qui évoque une hiérarchie en termes de saillance (salience hierachy, Fillmore 1977 : 78).

Ainsi, les agents jouent clairement les rôles les plus saillants, du moins lorsque les processus sont dynamiques. Sur le plan lexical, par ailleurs, D. Geeraerts (2000 : 90) fournit plus récemment une étude très détaillée de la saillance liée à la sélection du lexique, au cours de laquelle il distingue plusieurs sous-catégories : les formes de saillance perspectivale, sémasiologique, onomasiologique et structurelle.

La première, à savoir la saillance perspectivale, est relative à des paires terminologiques (ex : hand / arm) qui traduisent une hiérarchie pouvant se dessiner dans l’extralinguistique entre le premier plan et le fond. La saillance sémasiologique concerne les relations entre les différentes possibilités sémantiques d’un item lexical donné, certaines valeurs étant plus centrales et prototypiques que d’autres. Si l’on considère maintenant la saillance onomasiologique liée à une certaine catégorie lexicale, elle correspond à la fréquence de l’élément lexical nommant cette catégorie, par contraste avec les autres valeurs sémantiques éventuellement associées à cet item lexical. Enfin, la saillance structurelle est relative à des traits sémantiques récurrents dans la structure du lexique (et pouvant donner lieu à la formation de termes par affixation). L’objectif de l’étude de Geeraerts est, en somme, de déterminer les paramètres responsables des choix lexicaux préférentiels des locuteurs.

Auteur: Pennec Blandine

Info: https://journals.openedition.org/anglophonia/258

[ marketing ] [ linguistique informatisée ] [ secondéité ] [ tiercité ]

 

Commentaires: 0

Ajouté à la BD par miguel

tactiques

Les 36 stratagèmes 1. " Traverser la mer sans que le ciel le sache " : Ce qui est familier n'attire pas l'attention. La lettre volée d'Edgar Allan Poe est visible, donc elle n'est pas secrète. Plutôt que de se protéger, user des représentations des autres pour mettre un projet en sécurité. 2. " Assiéger Wei pour secourir Zhao " : Construire la victoire en se réglant sur les mouvements de l'ennemi. L'offensive de Wei sur Zhao crée l'opportunité d'une attaque dans le vide de la défense de sa capitale1. Plutôt que de se soumettre aux passions et aux initiatives de l'autre, être en réaction... profiter des vides, qui appellent des pleins, dans le système de forces de l'autre. 3. " Assassiner avec une épée d'emprunt " : Si tu veux réaliser quelque chose, fais en sorte que d'autres le fassent pour toi. Plutôt que de faire le travail en s'exposant à des contres de la part des autres, user des logiques d'autres acteurs et les orienter (les composer) pour qu'elles travaillent pour soi sans qu'ils le sachent. 4. " Attendre en se reposant que l'ennemi s'épuise " : Le stratège attire l'ennemi, il ne se fait pas attirer par lui. Le président sortant, candidat à sa réélection, attend que les prétendants épuisent leurs cartouches avant de se déclarer en connaissance de cause et de l'emporter. Plutôt que de se hâter dans une confrontation pleine d'ardeurs, de dispositifs offensifs et de... attendre la décrue des attaques pour s'avancer en terrain connu et dégagé (sans surprise). 5. " Profiter de l'incendie pour piller et voler " : La première tâche consiste à se rendre invincible, les occasions de victoire sont fournies par les erreurs adverses. Un politique ambitieux s'engage dans le camp défait (vide) car plus porteur à terme que celui de la victoire (plein). Plutôt que de s'exposer et se risquer dans l'attaque d'acteurs installés, profiter des moments de faiblesse pour s'emparer des valeurs. 6. " Bruit à l'est ; attaque à l'ouest " : Celui qui sait quand et où s'engager, fait en sorte que l'autre ignore où et quand se défendre. La cité assiégée impatiente qui attend depuis longtemps de connaître la direction de l'offensive, n'est plus critique sur les signaux qu'elle reçoit enfin. Plutôt que de se soumettre aux attentes des autres en leur envoyant les signaux qu'ils attendent, exacerber leurs conditions d'attente de sorte qu'ils ne soient plus à même d'être critiques lorsqu'une information leur est livrée. II. Plans pour les batailles indécises 7. " Créer quelque chose ex nihilo " 8. " L'avancée secrète vers Chencang " 9. " Regarder le feu depuis l'autre rive " 10. " Dissimuler une épée dans un sourire " 11. " La prune remplace la pêche dans l'impasse " 12. " Emmener la chèvre en passant " III. Plans pour les batailles offensives 13. " Battre l'herbe pour effrayer le serpent " 14. " Faire revivre un corps mort " 15. " Attirer le tigre hors de la montagne " 16. " Laisser s'éloigner pour mieux piéger " 17. " Se défaire d'une brique pour attirer le jade " 18. " Pour prendre des bandits d'abord prendre leur chef " IV. Plans pour les batailles à partis multiples 19. " Retirer le feu sous le chaudron " 20. " Troubler l'eau pour prendre le poisson " 21. " Le scarabée d'or opère sa mue " 22. " Verrouiller la porte pour capturer les voleurs " 23. " S'allier avec les pays lointains et attaquer son voisin " 24. " Demander passage pour attaquer Guo " V. Plans pour les batailles d'union et d'annexion 25. " Voler les poutres, échanger les piliers " 26. " Injurier l'acacia en désignant le mûrier " 27. " Jouer l'idiot sans être fou " 28. " Monter sur le toit et retirer l'échelle " 29. " Sur l'arbre les fleurs s'épanouissent " 30. " Changer la position de l'invité et de l'hôte " VI. Plans pour les batailles presque perdues. 31. " Le piège de la belle " (comploter avec la beauté) 32. " Le piège de la ville vide " 33. " Le piège de l'agent double " 34. " Faire souffrir la chair " 35. " Les stratagèmes entrelacés " 36. " Courir est le meilleur choix " (Il est préférable de fuir. Lorsque vous êtes vaincu, vous cessez le combat. Trois solutions se présentent alors à vous: la reddition, le ralliement ou la fuite. La première correspond à une défaite totale, la seconde à une semi-défaite, et la troisième à une non-défaite. Et si vous évitez la défaite, vous conservez encore une chance de gagner).

Auteur: Internet

Info: Traité chinois de stratégie

[ conflit ] [ combat ] [ guerre ]

 

Commentaires: 0

contemplation

L'étude de la méditation montre un gain de vie
LUNDI 2 mai (Health Day News) les gens qui pratiquent la méditation transcendantale ont vécu plus longtemps que les autres personnes, il y aurait une réduction de 23 pour cent du taux de mortalité. Tels sont les résultats d'une étude à long terme.
Les études précédentes avaient prouvé que la méditation transcendantale (TM) diminue le stress et, en conséquence, abaisse également la tension artérielle.
"Ce que nous savions après les quelques centaines d'autres études était que TM change les facteurs de risque physiologiques et psychologiques pour les maladies chroniques" dit Robert Schneider, directeur d'étude de l'institut pour la médecine naturelle à l'université Maharishi de Fairfield, Iowa.
"Nous avions quelques indicateurs des changements à court terme des marqueurs, mais c'est la première fois que d'une manière rigoureuse et avec un nombre décent de personnes nous pouvons montrer que cette technique esprit-corps prolonge réellement la vie... " Cela réduit toutes les causes la mort, par maladie cardiovasculaire spécifiquement. Il ne s'agit pas simplement des facteurs de risque, mais des résultats finaux."
Le centre a été établi par une concession du centre national pour la médecine complémentaire et alternative, partie des instituts nationaux de la santé, pour étudier spécifiquement la médecine naturelle en rapport aux maladies cardiovasculaires chez les populations minoritaires. L'université de Maharishi a été fondée par le yogi de Maharishi Mahesh, qui est crédité pour d'avoir présenté TM au monde.
Pour cette étude, les chercheurs ont étudié 202 hommes et femmes avec une tension artérielle modérément élevée qui avait précédemment participé aux études qui avaient pris au hasard des volontaires à la méditation transcendantale, pour un programme comportemental technique (tel que le mindfulness). Les participants ont été suivis pendant plus de 18 ans. Schneider et ses collègues ont mis à jour certaines de leurs données jusqu'à leur mort.
"Nous avons trouvé de nouvelle info pour les personnes âgées" dit Schneider "c'était plus faisable pour étudier les sujets qui avaient commencé la pratique en matière de TM il y a un certain nombre d'années. Nous avons regardé leurs enregistrements en arrière dans le temps et en avons envoyé 202 (noms) à l'index national des mort, afin de pouvoir rechercher les taux de mortalité et les causes de la mort."
En plus d'une réduction de 23 pour cent de la mort globale, les gens qui ont pratiqué TM ont montré une réduction de 30 pour cent du taux de mort par maladie cardiovasculaire ainsi qu'une réduction de 49 pour cent du taux de la mort par cancer, a montré l'étude.
"TM produit des changements du système nerveux et dans l'activité des ondes cervicales. Quand on regarde le reste du corps il y a hypotension, moins de stress des hormones, changements des facteurs de risque comportementaux comme le tabagisme et l'abus de drogue et amélioration dans la santé psychologique "Ce sont tous ces changements, plus à court terme, qui, après quelques mois, semblent affecter le résultat à long terme."
Schneider décrit TM comme "technique simple et normale pratiquée pendant 20 minutes deux fois par jour" qui a comme conséquence un état "de vigilance reposant."
"C'est l'expérience de cet état de vigilance par le repos effectué d'une manière régulière, systématique, et répétitive qui rend TM distinctif parmi les techniques de méditation qui ont été étudiées.
Il n'est pas clair de savoir si d'autres techniques de méditation ont le même effet. Quelques experts pensent qu'il y a des problèmes avec cette recherche.
D'abord les auteurs ont fourni seulement les taux relatifs d'événement, pas les taux d'absolu, dit le Dr. Robert J. Myerburg, professeur de médecine et de physiologie à l'université de l'école de Miami de médecine. "Cela indique qu'il y a un effet, mais l'impact est peu clair," il explique.
"Je ne suis pas sûr qu'il y ait quelque chose nouveau," ajoute Richard Milani, chef de section de cardiologie préventive à la clinique Ochsner de la Nouvelle-Orléans. "Nous savons que la méditation transcendantale abaisse la tension artérielle et nous savons que chez les personnes âgées, quand on baisse la pression, on voit une amélioration cardiovasculaire.
Bien que l'étude ait fait participer seulement un nombre restreint de personnes, les auteurs pensent que les résultats suggèrent que TM puisse être associé aux diminutions de la mortalité chez les personnes âgées avec une tension artérielle élevée.

Auteur: Gardner-Health Amanda

Info: mai 2005

 

Commentaires: 0

exploration spatiale

Astrolinguistique : comment communiquer en cas de contact avec une civilisation extraterrestre ?
L’astrolinguistique, xénolinguistique, ou encore exolinguistique, est le domaine de recherche de la linguistique qui s’attèle à déterminer et développer des modèles de langages non-humains (extraterrestres) dans le cas où un premier contact avec une civilisation extraterrestre intelligente serait effectué. Un tel événement ne s’étant toujours pas produit, ce domaine reste encore hypothétique, mais donne lieu à un véritable travail de recherche universitaire de la part des scientifiques.

L’univers observable compte des centaines de millions de galaxies, chacune contenant à leur tour des centaines de millions d’étoiles et de planètes potentielles. L’existence de civilisations extraterrestres intelligentes n’est donc pas à exclure. Si aucun contact avec l’Homme ne s’est encore produit, la possibilité d’un tel événement est envisageable. Tant et si bien que les scientifiques commencent déjà à prévoir cette éventualité en tentant de développer des outils de communication.

Loin d’être de la science-fiction, l’astrolinguistique est une discipline universitaire qui s’est développée au cours des 30 dernières années. Certaines universités, comme la Bowling Green State University (États-Unis), l’ont même intégrée à leurs cours afin de former des chercheurs spécialisés dans ce domaine. La xénolinguistique est en réalité une sous-famille de la linguistique théorique dont l’objectif est la construction et la déconstruction de langages fictifs ou existants.

(Le langage des heptapodes utilisé dans le film Premier Contact a été développé par la linguiste Jessica Coon et le scientifique Stephen Wolfram. Il est considéré comme scientifiquement plausible par la communauté scientifique." photo de l'article original absente)

L’un des précurseurs du domaine est le célèbre linguiste américain Noam Chomsky. Pour ce dernier, la théorie de la grammaire universelle empêcherait l’Homme de comprendre naturellement une civilisation extraterrestre. Cette théorie postule que les bases élémentaires et communes de la grammaire humaine sont génétiquement prédéterminées, encodées dans le génome, indépendamment de la culture ou de l’environnement. L’Homme devrait donc difficilement et lentement déchiffrer chaque structure de ce nouveau langage.

Pour la linguiste canadienne Keren Rice, spécialisée dans les langages indigènes, une communication extrêmement basique entre humains et extraterrestres serait possible tant que les éléments contextuels primitifs restent les mêmes. Par exemple, même si les termes pour désigner une planète changent, il est fort probable qu’une civilisation extraterrestre connaisse l’objet lui-même, c’est-à-dire qu’elle ait déjà vu une planète.

L’astrolinguistique est plus largement intégrée au domaine de la Communication avec une intelligence extraterrestre (CETI) sur lequel se penchent de nombreux chercheurs et institutions scientifiques. La question fait régulièrement l’objet de discussions scientifiques lors de l’American Association for the Advancement of Science.

Généralement, quatre formes de langages possibles sont définis : le langage mathématique, le langage pictural, le langage algorithmique et multimodal, et le langage naturel. Les outils linguistiques développés dans le cadre de ces recherches s’appuient sur des études actuelles visant à décrypter des langages humains encore non déchiffrés, comme le Linéaire A, un langage utilisé en Crête ancienne entre 1900 et 1400 av. J.-C.

Le Lincos (pour lingua cosmica) est un des tous premiers langages mathématiques développé par le mathématicien allemand Hans Freudenthal au début des années 1960, dans son livre Lincos: Design of a Language for Cosmic Intercourse. Il utilise une structure mathématique basique pour transmettre des messages, destinée à être comprise par n’importe quelle civilisation intelligente. Par la suite, des scientifiques comme Lancelot Hogben et Carl Sagan proposeront eux aussi des syntaxes reposant sur des principes mathématiques.

Ce disque est embarqué par les sondes Voyager 1 et 2 afin de raconter l’histoire de la Terre. Elle contient un message de bienvenu en 60 langages différents, des échantillons de musiques de plusieurs styles et ethnies, des sons d’origine humaine ainsi que des schémas et informations électroniques compréhensibles par une civilisation avancée.

De la même manière, le message d’Arecibo contenait quelques structures atomiques, les briques de l’ADN, un schéma du Système solaire et un dessin du télescope Arecibo lui-même. Un hybride de langage mathématique et pictural, considéré comme scientifiquement réaliste, a été développé pour le film Premier Contact, sous la direction de la linguiste Jessica Coon.

Le langage multimodal combine plusieurs systèmes de communication afin de maximiser les chances de compréhension. Le Teen-Age Message développé par des scientifiques russes en est un bon exemple.

Ce dernier combine un signal radio destiné à permettre aux destinataires d’en remonter la source, une musique jouée sur un thérémine, ainsi qu’une association d’images semblables à celles du message d’Arecibo. Tandis que le langage algorithmique prend la forme d’un code informatique pouvant être exécuté sur n’importe quelle machine.

Enfin, le langage naturel renvoie au cas où une civilisation communiquerait, volontairement ou non, avec nous dans son langage natif. Dans ce cas, les scientifiques devraient déconstruire le langage en isolant des schémas répétitifs, des rythmes, des taux de répétition, des structures complexes et des propriétés linguistiques sous-jacentes renvoyant à un système de communication intelligent.

Auteur: Internet

Info: https://trustmyscience.com, Thomas Boisson 27 mars 2019

[ rencontre exotique ]

 

Commentaires: 0

Ajouté à la BD par miguel

confusion

1 Je lis en page quatre de mon quotidien que les campagnes de mesures au-dessus de l'Antarctique ne sont pas bonnes cette année : le trou de la couche d’ozone s’y agrandit dangereusement. En lisant plus avant, je passe des chimistes de la haute atmosphère aux P-DG d’Atochem et de Monsanto, lesquels modifient leurs chaînes de production pour remplacer les innocents chlorofluorocarbones, accusés de crime contre l’écosphère. Quelques paragraphes plus loin, ce sont les chefs d’État des grands pays industrialisés qui se mêlent de chimie, de réfrigérateurs, d’aérosols et de gaz inertes. Mais en bas de la colonne, voici que les météorologues ne sont plus d’accord avec les chimistes et parlent de fluctuations cycliques. Du coup, les industriels ne savent plus que faire. Les têtes couronnées hésitent elles aussi. Faut-il attendre ? Est-il déjà trop tard ? Plus bas, les pays du tiers monde et les écologistes ajoutent leur grain de sel et parlent de traités internationaux, de droit des générations futures, de droit au développement et de moratoires.

2 Le même article mêle ainsi réactions chimiques et réactions politiques. Un même fil attache la plus ésotérique des sciences et la plus basse politique, le ciel le plus lointain et telle usine dans la banlieue de Lyon, le danger le plus global et les prochaines élections, ou le prochain conseil d’administration. Les tailles, les enjeux, les durées, les acteurs ne sont pas comparables et pourtant les voilà engagés dans la même histoire.

3 En page six de mon quotidien, j’apprends que le virus du sida de Paris a contaminé celui du laboratoire du professeur Gallo, que MM. Chirac et Reagan avaient pourtant juré solennellement de ne pas remettre en cause l’historique de cette découverte, que les industries chimiques tardent à mettre sur le marché des médicaments réclamés à hauts cris par des malades organisés en associations militantes, que l’épidémie se répand en Afrique noire. De nouveau, des têtes couronnées, des chimistes, des biologistes, des patients désespérés, des industriels se trouvent engagés dans une même histoire incertaine.

4 En page huit, il s’agit d’ordinateurs et de puces contrôlées par les Japonais, en page neuf d’embryons congelés, en page dix de forêt qui brûle entraînant dans ses colonnes de fumées des espèces rares que certains naturalistes veulent protéger ; en page onze, de baleines munies de colliers auxquels sont accrochées des radios balises ; toujours en page onze, c’est un terril du Nord, symbole de l’exploitation ouvrière, que l’on vient de classer comme réserve écologique à cause de la flore rare qui s’y est développée. En page douze, le pape, les évêques, Roussel-Uclaf, les trompes de Fallope, les fondamentalistes texans s’assemblent autour du même contraceptif en une étrange cohorte. En page quatorze, c’est le nombre de lignes de la télévision haute définition qui rattache M. Delors, Thomson, la CEE, les commissions de standardisation, les Japonais encore, et les producteurs de téléfilms. Changez de quelques lignes le standard de l’écran, et les milliards de francs, les millions de téléviseurs, les milliers d’heures de téléfilms, les centaines d’ingénieurs, les dizaines de P-DG valsent.

5 Heureusement qu’il y a dans le journal quelques pages reposantes où l’on parle de pure politique (une réunion du parti radical), et le supplément des livres où les romans relatent les aventures exaltantes du moi profond (je t’aime, moi non plus). Sans ces pages lisses, on attraperait le tournis. C’est qu’ils se multiplient, ces articles hybrides qui dessinent des imbroglios de science, de politique, d’économie, de droit, de religion, de technique, de fiction. Si la lecture du journal quotidien est la prière de l’homme moderne, alors c’est un homme bien étrange qui prie aujourd’hui en lisant ces affaires embrouillées. Toute la culture et toute la nature s’y trouvent rebrassées chaque jour.

6 Pourtant, nul ne paraît s’en soucier. Les pages Économie, Politique, Sciences, Livres, Culture, Religion, Faits divers se partagent les maquettes comme si de rien n’était. Le plus petit virus du sida vous fait passer du sexe à l’inconscient, à l’Afrique, aux cultures de cellules, à l’ADN, à San Francisco, mais les analystes, les penseurs, les journalistes et les décideurs vous découperont le fin réseau que le virus dessine en petits compartiments propres où l’on ne trouvera que de la science, que de l’économie, que des représentations sociales, que des faits divers, que de la pitié, que du sexe. Pressez le plus innocent aérosol et vous serez dirigés vers l'Antarctique, et de là vers l’université de Californie à Irvine, les chaînes de montage de Lyon, la chimie des gaz inertes, et de là peut-être vers l’ONU, mais ce fil fragile sera rompu en autant de segments qu’il y a de disciplines pures : ne mélangeons pas la connaissance, l’intérêt, la justice, le pouvoir. Ne mélangeons pas le ciel et la terre, le global et le local, l’humain et l’inhumain. "Mais ces imbroglios font le mélange, direz-vous, ils tissent notre monde ?" — "Qu’ils soient comme s’ils n’existaient pas", répondent les analystes. Ils ont tranché le nœud gordien avec un glaive bien affuté. Le timon est rompu : à gauche la connaissance des choses, à droite l’intérêt, le pouvoir et la politique des hommes.

Auteur: Latour Bruno

Info: Nous n'avons jamais été modernes. La prolifération des hybrides. Incipit

[ binarisme simplificateur ] [ infobésité ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Le premier chapitre de l’ouvrage montre que la période grecque est déterminante pour les développements ultérieurs de la connaissance, elle a posé certains principes fondamentaux qui seront discutés jusqu’à nos jours. En synthétisant les apports de penseurs grecs d’Héraclite et Parménide, de Socrate à Platon, Aristote et Épicure, Martine Bocquet pointe qu’à cette époque le signe (séméïon) est secondaire, il est considéré comme un signe de la nature que l’on peut interpréter (symptôme de maladies, foudre, etc.). Il s’oppose au mot qui, lui, repose sur une relation conventionnelle. Martine Bocquet montre qu’Aristote est important pour la sémiotique, de Deely en particulier. Réaffirmant l’importance du rapport sensible au monde, face à Platon, il a placé le séméïon au fondement de la connaissance et orienté ses recherches vers la relation comme catégorie discursive (pp. 33-45), notion qui sera au cœur des discussions des scoliastes.

Le chapitre deux montre l’évolution importante des notions de signe et de relation à la période latine médiévale et scolastique. Suivant l’étude de Deely, Martine Bocquet souligne le rôle d’Augustin d’Hippone. En traduisant le séméïon grec en signum, il a proposé la première formulation générale du signe qui subsume l’opposition entre nature et culture entre lesquelles il fonctionne comme une interface (p. 65, 68). Bien qu’elle demeure imparfaite, l’approche d’Augustin pose d’une part les fondements d’une théorie relationnelle de la connaissance ; d’autre part, en maintenant une distinction entre signe naturel (signum naturale, séméïon) et signe conventionnel (signum datum), elle ouvre sur une conception de la communication, tout à fait intéressante, engageant tous les êtres vivants (animaux, plantes) (p. 67, 69). D’une autre façon, la problématisation de la relation apparaît tout aussi importante à cette période. En distinguant, chez Aristote, la relatio secundum dici (relation transcendantale) — relation exprimée par le discours — et la relatio secundum esse (relation ontologique) — relation en tant qu’entité particulière (p. 70) — Boèce permet de concevoir l’existence de relations ontologiques, indépendantes de la pensée (p. 73) — fondamentales chez Poinsot, Peirce et Deely. Cette distinction aura son incidence puisqu’elle posera les termes de la querelle des universaux, tournant épistémologique majeur de l’histoire des connaissances.

Initiée par Pierre Abélard, la "querelle des universaux" est abordée par Martine Bocquet au chapitre trois et apparaît comme le point pivot de l’ouvrage (pp. 107-112) dans la mesure où elle aura une incidence sur le rapport au monde et à la connaissance. La dispute, qui porte sur la nature de l’objectivité et du statut de réalité des entités dépendantes ou non de la pensée, par le biais de la catégorie aristotélicienne de relation, et, par extension, de celle de signe, oppose les réalistes aux nominalistes.

Les penseurs dits "réalistes", parmi lesquels Thomas d’Aquin, Roger Bacon, Duns Scot, considèrent que le signe est constitué d’une relation indépendante de la pensée, dite ontologique, à la nature. Le traitement de Martine Bocquet montre clairement que Deely se retrouve dans la pensée de ces auteurs, dont il a avant tout souligné la contribution à la sémiotique de Peirce : (i) le signe subsume l’activité cognitive (pp. 80-81) (ii) la relation de signe est dans tous les cas triadique (p. 82), (iii) les signes se constituent de manière dynamique, ce qui leur permet d’agir (sémiosis) et de jouer un rôle dans l’expérience et la connaissance (pp. 83-86).

Martine Bocquet met particulièrement en évidence la pensée de Jean Poinsot (Jean de St-Thomas), en soulignant son influence sur Deely. L’originalité de ce dernier est d’avoir considéré Poinsot comme le précurseur d’une sémiotique voisine de celle de Peirce, plus ontologique encore. Pour le résumer en quelques points, Poinsot défend avant tout que la nature et la réalité du signe sont ontologiques (secundum esse), c’est-à-dire que le signe est une relation dont le véhicule est indifférent à ce qu’il communique (p. 102). Ce point est essentiel car il permet de doter le signe d’une nature proprement relationnelle : (i) il pointe vers autre chose (une autre réalité physique ou psychique), (ii) il permet d’articuler la subjectivité et l’intersubjectivité et (iii) opère la médiation entre les choses (indépendantes de la pensée) et les objets (dépendants de la pensée) (pp. 105-106) ; ce que la représentation, où l’objet pointe vers lui-même, n’autorise pas. Le point de vue de Poinsot est déterminant, car les nombreux retours vers sa pensée réalisés tout au long de l’ouvrage, montrent que c’est au prisme de ces principes que Deely réévaluait les pensées modernes.

De l’autre côté, les "nominalistes" comme Guillaume d’Ockham considèrent que la réalité est extra mentale, que seules les causes externes sont réelles, et qu’en conséquence, les relations intersubjectives n’existent que dans la pensée. Malgré l’intervention des successeurs d’Ockham qui, contrairement à celui-ci, admettront le signe, divisé en deux entités — signes instrumentaux (physiques, accessibles aux sens) et signes formels (concepts) — à partir de 1400 environ, les concepts (signes formels) seront considérés comme des représentations (p. 91). Martine Bocquet montre bien que le principe nominaliste, souvent simplifié, sera largement adopté par les sciences empiriques qu’il permettra de développer, mais cela, et c’est l’enjeu de la démarche de Deely, au détriment du rapport entre le monde et les sens.

Dans le quatrième chapitre consacré à la modernité, Martine Bocquet montre comment Deely a pointé les problèmes et les limites posés par l’héritage du nominalisme, en mettant notamment en perspective les travaux des empiristes (John Locke, David Hume), puis ceux de Kant, avec les propositions de Poinsot. Elle montre d’emblée que le rationalisme de Descartes, où la raison est indépendante et supérieure à la perception, conduira à renégocier la place de la perception dans la connaissance. En concevant les qualités des sens comme des images mentales, les modernes renversent l’ordre de la perception sensorielle reconnu par les scoliastes, les qualités sensorielles (couleurs, odeurs, sons) autrefois premières sont reléguées au second plan (p. 117). Les empiristes (John Locke, George Berkeley, David Hume) contribueront à considérer l’ensemble des sensations comme des images mentales, ils ne seront alors plus capables de s’extraire de la subjectivité (p. 121-124). À ce titre, Martine Bocquet porte à notre attention que Deely avait bien montré que l’empirisme et le rationalisme éludaient la description du phénomène de cognition.

L’approche de Kant apparaît dans l’ouvrage comme point culminant, ou synthèse, de la pensée moderne. En suivant les pas de Deely, Martine Bocquet prend le soin de mettre son travail en perspective avec la pensée de Poinsot, ce qui permet de réaffirmer sa pertinence dans le projet sémiotique de Deely. Kant a eu le mérite d’envisager des relations objectives. Toutefois, en limitant la cognition aux représentations, il la sépare de la signification, c’est-à-dire du supplément de sens contenu dans l’objectivité (au sens de Poinsot), et se coupe de l’expérience de l’environnement sensible qui permet à l’homme de connaître et de constituer le monde (pp. 130-131). Martine Bocquet insiste sur le fait que, selon Deely, la pensée kantienne est lourde de conséquences puisqu’en inversant les concepts d’objectivité et de subjectivité, elle enferme l’individu dans sa propre pensée (p. 134), reléguant la communication au rang d’illusion.

Le dernier chapitre de l’ouvrage est consacré aux chercheurs post-modernes, qui ont marqué la fin du modernisme et opéré un retour vers le signe. On y trouve notamment les apports d’Hegel et de Darwin, entre autres, qui ont permis d’affirmer le rôle concret de la relation ontologique dans la cognition, et la prise des facultés cognitives avec l’environnement physique. Martine Bocquet consacre une grande partie du chapitre à la sémiotique en tant que discipline, ce qui lui permet de réaffirmer l’ancrage de Deely dans l’héritage peircien qui est ici clairement distingué des modèles de Saussure et Eco.

Martine Bocquet rappelle d’abord que la pensée de Peirce s’inspire des réalistes (d’Aquin, Duns Scot) et considère donc que les produits de la pensée sont bien réels, et non de simples constructions des sens. La sémiotique qu’il développe appréhende la signification comme un parcours de pensée dynamique entre expérience et cognition. Dans son modèle ternaire, présenté en détail, la relation de tiercité caractérise le fonctionnement de la cognition humaine depuis la perception d’indices jusqu’à la constitution d’un système de signification ; elle est propre à l’homme qui peut se référer à la réalité mais aussi évoquer des choses imaginées (p. 146). L’intérêt de ce modèle est de permettre d’envisager que les non-humains utilisent aussi des signes, possibilité envisagée par Peirce dans sa « grande vision », doctrine qui selon Bocquet fascine Deely. Ce projet consistait à étendre la sémiotique au vivant, considérant que l’action des signes est enracinée dans toutes les choses du monde. Il ouvre sur un vaste champ de recherche abordé en conclusion, sur lequel nous reviendrons.

Contrairement à la sémiotique peircienne, Bocquet montre que John Deely considère que la sémiologie de Saussure, reposant sur le signe linguistique, est limitée car elle ne s’occupe que des signes conventionnels, culturels. De ce fait, elle se montre non seulement incapable d’approcher le signe naturel mais elle court aussi le risque de faire de la réalité une construction de l’esprit (idéalisme). En dépit d’un substrat peircien partagé, la même critique sera adressée à la théorie des codes d’Eco puis, plus loin dans la conclusion de Martine Bocquet (pp. 171-172), au structuralisme (Greimas, Lévi-Strauss). En somme, ces sémiotiques sont très efficaces pour étudier les systèmes de signes spécifiquement humains, mais, enfermées dans le langage et la culture, elles sont incapables de traiter les signes naturels, toute tentative révèle leur idéalisme. À cet endroit, l’auteure met bien en évidence l’opposition irréductible entre, d’un côté, ces théories qui ne rendent compte ni du signe naturel ni de la reconnaissance des phénomènes de la nature, et de l’autre, la posture de Deely qui défend l’idée que les données des sens ne sont jamais déconnectées et que la perception comprend une structure d’objectivité car les relations sont réelles (p. 165). Finalement, au travers de l’ouvrage, Bocquet montre que Deely prônait un retour à l’universalité du signe.

La conclusion du livre indique que Deely plaçait le signe et la sémiotique au cœur d’une pensée postmoderne capable de rétablir le dialogue entre les sciences dures et les sciences de la communication. Ce dialogue répondrait à la nécessité de comprendre l’action des signes autant dans la nature que dans la culture. Pour concrétiser cela, Deely propose un retour au réalisme oublié des scoliastes latins pour réviser les théories des modernes afin de renouer le lien avec la nature, en tenant compte des entités dépendantes et indépendantes de la pensée (p. 168).

Cette posture s’inscrirait, selon Martine Bocquet, dans un projet sémioéthique au sein duquel l’homme prendrait conscience de ses responsabilités vis-à-vis de la nature. Finalement, la solution à adopter correspond à la "grande vision" de Peirce, introduite en amont, c’est-à-dire une doctrine des signes qui, d’une part, intègre l’ensemble de la connaissance humaine du sensoriel aux interactions sociales et à la culture et, d’autre part, étend la sémiotique à l’ensemble du monde vivant, considéré comme un réseau de significations entre humains et non-humains, et noué sur une relation ontologique présente dans toute chose (pp. 169-170). Mis en application dans les années 1960, ce projet a donné lieu à un ensemble de sémiotiques spécifiques étudiant aussi bien le vivant, comme la physiosémiotique, la phytosémiotique, la zoosémiotique, la biosémiotique, que l’homme avec l’anthroposémiotique. Nous soulignons que certaines de ces disciplines sont aujourd’hui émergentes pour répondre aux questions environnementales actuelles en termes de climat, de cohabitation entre espèces et d’habitabilité du monde.

La restitution des travaux de Deely par Martine Bocquet semble tout à fait pertinente pour les sciences de la communication. Tout d’abord, parce que la démarche historique de Deely invitant à réévaluer nos acquis au prisme de modèles plus anciens, parfois moins connus, est tout à fait d’actualité et nécessaire dans notre réseau de recherche pluridisciplinaire. Ensuite, du fait de la structure détaillée du livre de Martine Bocquet qui permettra autant aux étudiants qu’aux chercheurs de trouver une formulation des concepts et des problèmes qui sous-tendent encore le domaine de la communication.

D’autre part, le grand intérêt de l’ouvrage réside dans le parti pris épistémologique de la sémiotique de Deely. En adoptant la relation ontologique de Poinsot, présente en creux chez Peirce, Deely ouvre des perspectives importantes pour le champ des sciences de la communication puisqu’il attire notre attention sur un concept universel de signe capable de réaffirmer la place du sensible dans la communication et de problématiser les interactions entre humains et non-humains. À ce titre, la pensée de Deely rapportée par Martine Bocquet est tout à fait en phase avec la recherche de ces quinze dernières années où différentes disciplines ont cherché à étudier la signification au-delà des particularités entre humains mais aussi entre êtres vivants, soit en adoptant un point de vue ontologique soit en intégrant les sciences physiques ou cognitives. Citons par exemple la biosémiotique, la zoosémiotique mais aussi l’anthropologie de la nature de Philippe Descola, "l’anthropologie au-delà de l’humain" d’Eduardo Kohn, la sémiophysique de René Thom et Jean Petitot ou encore la sémiotique cognitive.

Auteur: Chatenet Ludovic

Info: résumé critique de : Martine Bocquet, Sur les traces du signe avec John Deely : une histoire de la sémiotique Limoges, Éditions Lambert Lucas, 2019, 200 p.

[ panorama sémiologique ] [ anthropocentrisme ] [ xénolinguistique ] [ philologie ]

 

Commentaires: 0

Ajouté à la BD par miguel