Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 118
Temps de recherche: 0.0976s

parapsychologie

Utopie : le retour de la mémoire de l'eau me rappelle des trucs
De par leurs idées et autres extrapolations des scientifiques comme Ruppert Sheldrake, Michel Bounias, Jacques Benveniste, Jean-Pierre Petit, Luc Montagnier... sont ou furent les cibles privilégiées du sectarisme des gens comme il faut. Sir John Maddox, rédacteur en chef honoraire de la revue Nature, bible des intégristes scientifiques, rédigea en 1981 un éditorial sur l'ouvrage de Ruppert Sheldrake, "A New Science of Life", dans lequel il écrivit : "Ce pamphlet exaspérant (...) est le meilleur candidat depuis de nombreuses années pour être brulé." Puis, lors d'une émission télévisée sur la BBC en 1994, il déclara : - Sheldrake met en avant la magie plutôt que la science et cela mérite d'être condamné dans les mêmes termes que ceux utilisés par le Pape pour condamner Galilée et pour les mêmes raisons. C'est de l'hérésie !...
Bref, on se croirait parfois revenu aux heures les plus sombres du moyen-âge. Mais ce n'est plus un sorcier que l'on veut brûler mais bien un docteur en biochimie diplômé.
Pour un prix Nobel (Montagnier) on fait un peu plus attention, on souligne donc perfidement que Nobel en question devient vieux. Ainsi, preuve est malheureusement donnée que ceux qui ont pour charge d'aider et de diffuser auprès des scientifiques du monde entier des avancées ou des prospectives qui élargissent nos connaissances sont trop souvent des censeurs dogmatiques.
Cette censure est de nos jours heureusement mise à mal grâce à Internet, espace de liberté par lequel tous les hérétiques peuvent s'exprimer, communiquer, et grâce auquel leurs idées deviennent accessibles au plus grand nombre. Ces chercheurs/spéculateurs scientifiques doivent fermement être défendus. Aidés même.
1) Au nom du droit à l'erreur:
2) Sans des gens qui pensent "autrement" pas de découverte scientifique majeure
3) Sans erreurs pas d'évolution.
Pensons à la sérendipité et rappelons-nous des créateurs anciens stigmatisés, Wegener et sa théorie de la tectonique des plaques par exemple, méchamment torpillé par la communauté scientifique de l'époque.
Ces scientifiques "maudits" sont plus que jamais les metteurs en cause nécessaires de nos sociétés capitalos démocratiques. Sociétés où les hiérarchisations sont devenue parfois si complexes que vouloir "monter" dans les appareils peut devenir quasiment un métier. Les hiérarchies se défendent, ici hélas bien au-delà du "Laisser toutes les portes ouvertes - mais en défendre férocement l'accès" de Jean Rostand. Elles sont de moins en moins des filtres à intelligences mais toujours plus des organismes d'orientation et de conservation du pouvoir.
Comme d'autre part l'attribution des budgets est de plus en plus décidée et pilotée par des mandants extérieurs dont le but n'est en général QUE mercantile, il y à la une problématique plus grave qu'il n'y parait.
Ainsi, pour l'affaire de "la mémoire de l'eau". Dans une société ou les multinationales pharmaceutiques sont dans le top mondial de la finance et où elles passent leur temps a terroriser la planète en agitant la peur de la maladie pour vendre leurs vaccins tueurs - avec la complicité des assurances -, la compromission des communautés scientifiques, économiques et politiques se voit désormais comme le nez au-milieu de la figure. Au mieux l'Etat laisse faire.
La science est en principe un champ ouvert, perpétuellement apte à se remettre en cause. La question qu'il faut poser aujourd'hui est au niveau de ses deux moteurs principaux : l'Etat-pouvoir et les Multinationales-finances. Deux logiques, gouvernements conservateurs et transnationales prédatrices, qui se conjuguent. Un Etat qui se couvre en émettant des lois qui cooptent le système en place (pour avoir le diplôme il faut "correspondre") couplé avec une économie qui recherche le profit mais pas le bien commun. Bref le système se nécrose et perd sa créativité exactement là où il devrait la conserver.
Pour revenir à cette histoire de la "mémoire de l'eau" et au sempiternel combat contre l'homéopathie. Il est souvent annoncé que l'effet placébo a été démontré chez les animaux.
D'abord il n'a jamais été démontré, mais constaté. Et cette simple constatation devrait suffire à allumer l'intérêt et débloquer des budgets. Niet dit alors le système : pas rentable, trop aléatoire... hors des clous. Ce hors des clous qui pourrait ouvrir de nouvelles perspectives étonnantes.
Car les scientifiques sont semble t'il toujours plus rationalistes, j'avance même que nous avons là une forme de fermeture intellectuelle que j'ai presque envie de formuler en "bêtise militaire", celle qui veut avoir une prise totale sur son sujet, pour, au final, vous en faire des armes ou des outils de pouvoir. Bravo !
Du coup pourquoi voulez-vous qu'ils s'intéressent au programme de recherche d'anomalies de technologie de Princeton (Pegg) qui a constaté les effets de la conscience humaine sur les machines. Effets minimes mais statistiquement constatés (et différents selon les sexes !). Et pourquoi voudriez-vous débloquer de gros budgets - et créer des emplois - pour développer des études destinées à explorer le champ de la biophysique. Champ dans lequel je mets aléatoirement et imprudemment les phénomènes acausals et la synchronicité de Jung, la mémoire de l'eau, cette aveugle allemande Gabriele Simon qui a développé la capacité de voir les couleurs avec ses bouts de doigts, ou le panpsychisme cher à Thomas Nage (dans la continuité de James William) qui imagine une âme dans les pierres, le minéral. Un Panpsychisme bien évidemment brocardé, ce qui me ramène à cette interminable histoire de mémoire de l'eau, étude qui laisse entrevoir qu'on pourra éventuellement démontrer (pardon : constater) qu'il y a échange d'informations ou d'ondes dans l'infiniment petit.
Mais il faudra tenter d'autres approches, étudier d'autres limitations potentielles dans la démarche scientifique. Vous pouvez être sûr qu'il y en a. Faut-il avoir le coeur pur pour celà ? Ou maitriser trois langues comme Cheick Diarra, qui use de l'anglais pour être efficace, du français pour la créativité... ou du Malien quand il s'agit de résoudre les rapports humains ? Parce que nous savons bien que les langues peuvent déterminer la nature et la teneur de la pensée. Et cette pensée est ici aussi le sujet de l'étude, sous l'éclairage de cette citation de David Chalmers : "L'expérience est information de l'intérieur; la physique est information de l'extérieur."
Ainsi ce papier... N'est autre que le désir de son auteur de produire un texte destiné à "résonner" chez ses lecteurs. Pour ce faire il use de cohérence mais s'efforce aussi, par son style, de faciliter cette résonnance. Eventuellement de la déclencher. Il y a une harmonie.
Les chercheurs font tous à des degrés divers de la science artistique. Tout est art finalement, quête d'harmonie (Aah Piaget). Approche soigneuse, plaisir du travail bien fait, résultats reproductibles, fond-forme... esprit-matière... Un homme vraiment absorbé représente une forme d'unicité.
On aimerait bien voir la tronche du décideur financier (pléonasme) à qui on proposerait la création d'un laboratoire de sciences artistiques, ou d'art scientifique. Lol, Mdr... C'est qui cet abrutelligent ?
Le problème, c'est peut-être d'oublier que nous avons modélisé le monde selon nos sens. Nous au centre, comme des gamins gâtés. Anthropomorphisme, solipsisme ?... Appelez ça comme vous voulez mais il semble qu'avec ce modèle nous nous dirigeons vers du "pas joli".
Donc toi esprit/moteur, piégé dans ce corps de bipède dépoilé, censé représenter l'espèce dominante (ou qui croit l'être) de la troisième planète d'un petit système solaire, tu perçois (ou croit percevoir) via tes sens, un petit nombre parmi les 800 octaves du cosmos (du noyau de l'atome jusqu'à la taille de l'univers), principalement par tes oreilles et tes yeux.
Ainsi as-tu calibré et "nommé" ton environnement. Ensuite, grâce aux outils que tu as su concevoir : téléscopes, rayons X, microscopes, ondes infra-rouges... tu as légèrement agrandi cette fenêtre de perception.
Pour ce qui est de l'étude et de la compréhension des interactions entre les forces qui sous-tendent ta réalité physique, limités par ce qui précède, tu sembles quelque peu borné par une nature-pensée peut-être trop bipolaire.
Tu es néanmoins parvenu à concevoir, entre autres, la bombe atomique, tout en restant incapable de limiter tes pulsions de reproduction galopante. D'où une surpopulation qui conduit fréquemment à des drames chez les gens de ta race. Et tu le sais très bien.
Zoom arrière.
Cadre des libertés, l'Etat n'est plus capable d'offrir ces dernières aux chercheurs. Au niveau des multinationales quasi plus non plus puisque ces équivalentes actuelles du mécénat d'antan offrent des financements subordonnés à des manoeuvres, des calculs. Et quand l'humain calcule en ce domaine ça craint : Gilette pour économiser sur la couche de platine de ses lames, Gates pour payer moins d'impôts, Soros pour favoriser le capitalisme... Ca craint vraiment.
Pensez : il existe encore quelques grandes boites qui financent des "nurseries pour créateurs indisciplinés", précisément pour récupérer la moindre trouvaille et en faire un profit sonnant et trébuchant !
Les sociétés humaines sont mortes de guerres subordonnées à l'inertie de leurs propres conformismes.
Grand zoom arrière.
Tentons de mieux distinguer Utopia.
Si on parvenait dans nos sociétés à consommer moins et plus intelligemment, via une meilleure éducation et une organisation plus simple et efficace, avec développement des activités de loisir et de méditation en parallèle, ce serait un début.
Nous sommes au sortir d'un siècle qui fut autant atroce qu'extrêmement créatif, tant par son développement technologique que pour sa science-fiction. Il y a maintenant comme un sentiment de retour en arrière, au mieux d'un plafonnement, d'un affinement inutile des idées. Idées bridées par l'inertie des acquis. Certitudes d'avant : matérialisme, "croassance", pseudo économie sous la coupe de pouvoirs qui tendent à une chose : se conserver.
C'est agaçant.

Auteur: Mg

Info: 1 oct 2014

[ ouverture ] [ sciences ]

 

Commentaires: 0

citation s'appliquant à FLP

A l'origine il y a cet atavisme, l'attrait et le plaisir des formules verbales. Mais que dans la tête donc, parce qu'à l'époque, on n'avait pas de portables pour enregistrer en vitesse un bon mot sur la fonction dictaphone... Plus tard je me suis amusé à noter les idées, marrantes ou pas. J'avais mes petits papiers... cahiers...

Mon premier ordinateur était un Atari, avec une mémoire de termite : 500 ko si je me rappelle bien, c'était l'équivalent d'une disquette d'alors. Mais quel ne fut pas mon plaisir, par ce confort informatique soudain, de pouvoir conserver et organiser les extraits qui me plaisaient. Et surtout corriger et peaufiner mes propres textes au fur et à mesure. Et puis arriva Microsoft Office et surtout Excel, ce qui permit l'ouverture de deux bases de données, parallèles aux textes proprement dits, bases qui n'ont cessé de se développer depuis : une pour les auteurs (avec les dates, pays, profession, etc..) l'autre avec les catégories et leurs corrélats... J'étais sur la voie d'un début d'organisation.

De fils en aiguille, les années passant et les ordinateurs s'améliorant, sans oublier l'irruption d'Internet, cette manie s'amplifia... J'en vins à parler de ce syndrome quasi maladif avec un élève de mes cours de musique, Fabrice. Etant informaticien, il se proposa de programmer un logiciel PHP afin de classer le moins mal possible ces données. Il fut décidé de faire simple, en taguant les textes/formules à deux niveaux distincts : CATEGORIE et CORRELATS. La recherche pouvant ensuite se combiner de multiples manières (par corrélat, mot du texte, catégorie, auteur, etc... et leurs mélanges). Il faut aussi savoir que le mot du tag n'apparait pas dans le texte cible, ce qui constitue une véritable VALEUR AJOUTEE, même si elle est subjective. Ainsi se sont développées des grappes de citations classées par catégories... Les tags des corrélats venant soit en éclairage secondaire soit, en les prenant tous ensemble, comme un mur de mots venant préciser l'extrait où la formule. En même temps se développaient les deux bases. Celle des auteurs permettant d'avoir une structure temporelle très intéressante puisqu'on peut voir les 21000 auteurs se déployer chronologiquement sur près de 5000 ans, en commençant par les égyptiens. Et celle des catégorie et des corrélats, structure centrale de tous les tags connectés, tablés sur Excel, un peu comme une transposition des associations diverses - et bien sûr subjectives - de mon petit cerveau... Outil fort utile ma foi quand, ne sachant plus trop quoi faire pour taguer ou associer intelligemment une citation ou un mot, je m'y réfère, utilisant aussi beaucoup les dictionnaires de synonymes en ligne pour ce faire.

Il y a bien sûr énormément de manques, de redondances, d'erreurs, doublons... Cette application est tout sauf exhaustive. Je conserve cependant espoir que l'électronique aidant il sera toujours plus aisé de corriger, d'augmenter les entrées, d'affiner et de contrôler mieux les tags, etc., d'autant qu'avec une mise en ligne on pourra user du retours des internautes. Tiens, par exemple il fut ajouté sur suggestion externe un filtre pour pouvoir choisir la longueur du texte recherché. (actuellement 25 mots au max, ou 100, ou illimité). L'établissement des catégories est une problématique complexe. Il faudrait pouvoir synthétiser le plus possible avec un mot unique ce qui est impossible. Et puis la langue évolue... et nous aussi... et chacun a sa manière de voir. Bref je me suis de fait retrouvé à établir des "mots clefs catégories" toujours plus affinés, et qui s'affineront encore avec le temps je suppose. Exemples : hommes-par-femmes, femmes-par-hommes, dialogue-web (pour mes emprunts sur les chats), pensée-de-femme, art-de-vivre, fond-forme... et beaucoup d'autres que vous découvrirez si vous vous promenez sur l'application.

Ainsi, au fil des années, (à ce jour près d'une trentaine), s'est établi une routine matinale d'une ou deux heures où je vais à la pêche aux extraits. Une prédation qui prend plusieurs formes. D'abord la traduction (de l'anglais et de l'allemand, avec une dilection pour les sciences et l'humour), ce qui constitue un excellent exercice, et qui permet parfois d'importer des idées différentes dans la langue française. Ensuite par le surf, au hasard d'un concept, en allant sur des sites spécialisés ou autre. Enfin, en lisant tel livre ou tel dictionnaire et en en annotant les parties que je fais ensuite saisir par ma fille ainée - contre salaire ! Cette marotte matinale me permet du coup de noter les idées qui me viennent au cours du processus. Transmutées en langage électronique je les tague aussi, avant de les mettre dans la base de données, ce qui me permet, oh immense présomption, de mêler mon nom et mes cogitations à celles d'immenses créateurs... tout autant qu'à celles d'illustre inconnus. 

Je me vois souvent mieux en sémanticien-joueur-explorateur, plutôt qu'en écrivain ou compilateur ; le langage - en tant qu'émergence de codes de communication - m'intéresse finalement plus que les histoires proprement dites. On pourra donc déceler un fort tropisme vers les jeux de mots, la poésie, les réparties amusantes, les paradoxes...

Mais en fait, ce qui est passionnant ici, c'est de taguer. Car classer est une forme de jugement, de critique... (avec une petit pensée au passage pour Perec). Alors : classer de manière neuronale ?!.. Bref c'est un plaisir, une quête... Du coup j'ai pris aussi quelques voies latérales, établissant par exemple, à l'aide de sites spécialisés, un classement personnel des personnages importants de l'histoire et de la pensée humaine dans plusieurs domaines (penseurs militaires, philosophes, maîtres spirituels...). Ce qui me permit, en utilisant ma classification des écrivains clefs, d'ouvrir quelques catégories sur certains pivots de la littérature mondiale. On retrouvera donc des textes où sont commentés Dostoïevski, Nietzsche, les grecs anciens, Montaigne, Dante, Shakespeare, Cervantès, etc. Auteurs qui se retrouvent de fait être les seuls et uniques à exister aussi bien dans la base de données "auteurs" que dans celle des "mots/clefs et corrélats". La problématique du tri sélectif dans l'histoire de la culture humaine a toujours été une grande interrogation personnelle. Pourquoi ceci ou cela demeure dans la culture humaine.

Il existe beaucoup de pistes pour des éléments de réponse mais il me semble que j'aurai vécu cette époque charnière, c'est à dire celle d'une explosion informatique ou l'outil intellectuel s'est retrouvé multiplié de manière incroyable. De fait ce délire personnel participera peut-être d'une manière ou d'une autre à quelque forme de tri futur ? Allons savoir.

On aura donc compris combien l'application FLP ne fut initiée que par des choix subordonnés à mon bon plaisir, mon goût pour l'ordre et la fantaisie... et aussi une ouverture naturelle que je ne réfrène aucunement. C'est à dire, pour être vraiment clair, que j'ai toujours eu une appétence autant pour le sérieux que pour le vulgaire, le superficiel, voire le grossier choquant... Est-ce ce qu'on appelle aimer les extrêmes ? Avec pour résultat que j'ai parfois une légère honte rétrospective quant à certaines catégories : porno, vulgarité... Je n'y suis parfois pas allé avec le dos de la cuillère... je ne sais pas me restreindre je vous dis... et comme l'informatique ne nous limite pas en terme de mémoire...

A aussi émergé, avant de bien se développer, une catégorie "Citations s'appliquant au logiciel", à l'instar de "Titre possible pour ce logiciel", qui permettent de consulter un grand nombre du vues que moi ou d'autres considèrent comme pertinentes quant à la définition de cette application.

Maintenant une de mes principales espérance reste qu'il devrait être possible pour tout un chacun, avec cet outil, tout comme je le fais moi-même, de développer et de fixer des filaments de pensées, (voir sous Memex) un peu à l'image de ces photos de l'univers où l'on voit les amas de galaxies s'étirer en de grands lambeaux dorés... J'ai vécu beaucoup de ces "voyages sur un concept" de par et grâce à l'organisation de cette base de donnée, les voyant se développer malgré moi en fonction de l'avancée de l'indexation de tel ou tel mot. Une des premières rubriques qui fit scintiller mes neurones se passa avec ce beau mot : "réminiscence"...

Beaucoup de catégories se sont donc développées en parallèle, certaines comme "humour" ou "littérature" venant au fil du temps envelopper de grands pans de la base. D'autres prenant de très grandes dimensions en terme de nombre d'entrées : femmes-hommes, déclarations d'amour, justifications... Au point qu'un jour cela donna lieu à l'édition d'un recueil, les "dernières paroles". J'avais fait sans le savoir de l'édition "en live".

Il y a aussi quelques domaines où, de par ma curiosité propre, mon parcours de vie et l'accumulation des données, j'ai la faiblesse de m'auto bombarder "connaisseur". En voici quelques-uns : musique, extraterrestres, judaïsme...

Il y eu souvent aussi des périodes, de quelques jours à quelques semaines, où je me suis concentré sur un mot/concept/catégorie précis, comme : haïkus, questions, positiver, réparties, quête.... Ou mieux. Suite à des demandes, il m'est arrivé de faire des recherches plus précises. Sur deux mots par exemple. Un jour une connaissance m'interrogea sur l'existence d'un extrait "littéraire" où serait décrit quelqu'un en pleine lecture lors d'une forte pluie. Ne trouvant pas l'extrait, je l'ai écrit. Eh oui... Le client est finalement roi !! Donc, pour qui utiliserait le logiciel pour ce cas précis, il lui faudra faire une recherche qui associera ces deux mots : pluie et lecture.

Et puis il y eut la rencontre avec cet incroyable logicien sémanticien que fut C.S. Peirce, qu'on pourra découvrir via les extraits que nous avons intégrés, sur Internet... ou dans la profession de foi de FLP. Et puis je fis connaissance avec notre chère Colimasson dont les retours et autres remontrances aidèrent, à partir de 2015, à préciser beaucoup de choses. Et puis il y a tous les autres contributeurs, que je ne puis que chaleureusement remercier ici. 

Bon, assez, je vous laisse essayer si ça vous dit -, moi j'y retourne. Ces temps j'ai un petit faible pour "crépuscule" et "source"... Que suis-je d'autre, ma foi, que la personne, subjective et égocentrée, à la source de cette compilation multidimensionnelle. Le dico des avocats ? Devenu FLP.

Avec maintenant les chatbots, bons outils comparatifs, qui nous aident à préciser certaines choses.

Auteur: Mg

Info: 24 nov. 2012. Précisé et mis à jour au fil du temps

[ création ] [ autocritique ] [ confession ] [ au coeur de FLP ]

 

Commentaires: 0

religions

Luther était-il antisémite ?
Paru en 1543, "Des Juifs et de leurs mensonges" est traduit pour la première fois en français. Le texte, resté jusqu'à présent inédit en français, est un brûlot contre les Juifs, alors que le fondateur de la Réforme avait d'abord pris leur défense. Comment expliquer ce revirement? Et quelles en furent les conséquences?
- BibliObs. L'antisémitisme de Luther est régulièrement évoqué, mais on ne disposait pas en France de la traduction de son principal libelle sur le sujet: "Des juifs et de leurs mensonges". Qu'y a-t-il exactement dans ce texte?
- Pierre Savy. Comme l'indique le titre du livre, il s'agit de dénoncer les "mensonges" des Juifs, à commencer par le mensonge le plus scandaleux aux yeux de Luther, car il porte sur le trésor précieux entre tous que les Juifs ont reçu de Dieu: la Bible. La tradition chrétienne affirme, en tout cas jusqu'au XXe siècle, que la lecture juive de la Bible juive (l'"Ancien Testament") est fausse parce que, plus ou moins délibérément, elle refuse la lecture christologique de la Bible, qui permet de voir dans ces textes l'annonce de la venue de Jésus comme messie.
C'est donc un livre contre le judaïsme et "contre les Juifs", sans aucun doute, mais il n'est pas adressé aux Juifs: Luther met en garde les "Allemands", c'est-à-dire les chrétiens de son temps, contre une politique de tolérance à l'égard des communautés juives.
Il dénonce les "vantardises" des Juifs (leur lignage, le lien qu'ils entendent instaurer avec Dieu par la circoncision, la détention de la Loi et leur droit sur une terre) et s'efforce par un travail exégétique d'établir le caractère messianique de Jésus. Il expose les soi-disant "calomnies" juives sur Jésus et Marie, colportant au passage diverses superstitions médiévales, par exemple les crimes rituels prétendument perpétrés par les Juifs.
Dans la dernière partie du volume, la plus souvent citée, il appelle à faire cesser les agissements condamnables des Juifs: l'usure, qui vide le pays de ses richesses, le blasphème, les nuisances diverses. Pour cela, il prône une politique d'éradication violente (il conseille ainsi à de nombreuses reprises d'incendier les synagogues), voire l'expulsion, même si ce mot n'est pas présent dans le livre de Luther : "Il faut que nous soyons séparés d'eux et
- Dans quel contexte Luther en vient-il à écrire de telles choses?
- Le livre est publié en 1543, trois ans avant la mort du réformateur. On est loin des débuts flamboyants de sa vie: il avait publié les fameuses "thèses" qui avaient lancé la Réforme en 1517, et ses plus grands textes dans les années 1520. "Des Juifs et de leurs mensonges" s'inscrit dans les années de consolidation et de structuration par Luther d'une Église et d'une société protestantes.
Ce sont aussi des années d'inquiétude face à l'apparition de déviances internes à la Réforme, comme les anabaptistes ou les sabbatariens, qui ont poussé la relecture de l'Ancien Testament jusqu'à observer, par exemple, le repos du shabbat. Ces sectes, dont l'Église de Dieu et l'Église adventiste du Septième jour sont les héritières contemporaines, Luther les considère comme "judaïsantes".
Au même moment, la saison des expulsions des Juifs d'Europe occidentale s'achève: il n'y en reste plus guère, sinon dans les ghettos d'Italie et dans quelques localités du monde germanique. Ce traité et deux autres non moins anti-judaïques de la même année 1543, "Du nom ineffable et de la lignée du Christ" et "Des dernières paroles de David", illustrent ce que la plupart des biographes a décrit comme un revirement dans l'attitude de Luther à l'égard des Juifs.
D'abord plutôt bienveillant envers eux et convaincu de sa capacité de les convertir (il écrit "Que Jésus-Christ est né juif" en 1523, un traité autrement plus sympathique que "Des Juifs et de leurs mensonges"), il s'oppose aux persécutions dont ils sont l'objet. Il est même accusé de "judaïser". Mais son objectif reste la conversion et il finit par en rabattre, déçu qu'il est par leur obstination dans leur foi. En vieillissant, il développe une haine obsessionnelle contre les Juifs, il parle souvent d'eux dans ses "Propos de table" et, trois jours avant de mourir, il prêche encore contre eux.
- Quelle est la place de cet antisémitisme dans la pensée de Luther?
- On pourrait répondre en faisant valoir que, matériellement, les pages antisémites de Luther constituent une part réduite de son oeuvre, il est vrai très abondante; et qu'elles ne sont pas plus violentes que celles où il vise d'autres groupes qui font eux aussi l'objet de sa haine ("papistes", princes, fanatiques, Turcs, etc.). Mais cela ne répond pas vraiment sur le fond.
On pourrait répondre aussi, et ce serait déjà un peu plus convaincant, qu'un luthéranisme sans antisémitisme est bien possible: des millions de luthériens en donnent l'exemple chaque jour. L'antisémitisme n'est donc pas central dans l'édifice théologique luthérien. Néanmoins, les choses sont plus compliquées: sans être inexpugnable, l'hostilité au judaïsme se niche profondément dans la pensée de Luther.
Comme les catholiques de son temps, Luther considère comme une infâme déformation rabbinique l'idée d'une Loi orale (le Talmud) comme pendant indispensable de la Loi écrite. Comme eux encore, il campe sur des positions prosélytes et, partant, potentiellement, intolérantes. Comme eux enfin, il manie de lourds arguments théologiques contre les Juifs s'obstinant à rester juifs (caducité de l'Alliance, annonce de Jésus comme Messie, etc.).
Mais, en tant que fondateur du protestantisme, son conflit avec le judaïsme se noue plus spécifiquement autour de la question chrétienne du salut. Pour les catholiques, je suis sauvé par mes "oeuvres", c'est-à-dire mes bonnes actions. C'est le fondement théologique de l'activité caritative de la papauté, qui permet d'acheter son salut à coups de donations, de messes, d'indulgences.
Au contraire, Luther, en s'appuyant notamment sur Paul, développe une théologie de la grâce, qui inverse le lien de causalit : l'amour de Dieu m'est donné sans condition, et c'est précisément ce qui doit m'inciter à agir de façon charitable. Or, dans "Des Juifs et de leurs mensonges", Luther range les Juifs du côté des catholiques, en quoi il se trompe, car la perspective juive se soucie en réalité fort peu du salut et de la rédemption. Cette critique contre le judaïsme est forte: s'agit-il cependant d'antisémitisme? Je ne le crois pas.
Le problème se niche peut-être plutôt dans cette capacité de violence et de colère du réformateur, dans sa véhémente affirmation d'une parole persuadée de détenir la vérité et de devoir abolir l'erreur. Concernant les Juifs, cela conduit Luther à remettre en cause les équilibres anciens trouvés par l'Église romaine et, plus généralement, à attaquer la tradition de tolérance (avec toutes les ambiguïtés de ce mot) de l'Occident, qui, depuis plus de mille ans, puisait à la fois au droit romain, à la politique des papes et aux principaux textes chrétiens.
À côté de désaccords théologiques, par exemple sur les oeuvres, la foi et la grâce, il y a chez Luther cette approche radicale, désireuse de rupture, de rationalité et d'homogénéisation. Cette approche est une des formes possibles de la modernité occidentale. On pourrait dire que c'est la face sombre des Lumières, et il me semble qu'on en trouve la trace dès Luther.
Truie : La "truie des Juifs", ou "truie juive" (en allemand Judensau), est un motif antisémite classique au Moyen Âge, figurée notamment sur un bas-relief de l'église de la ville de Wittemberg (où Luther prêcha). Elle représente des Juifs en contact obscène avec une truie, et entend dénoncer ainsi la bestialité des Juifs et le lien intime qu'ils entretiennent avec les porcs. L'image revient à vingtaine de reprises dans "Des Juifs et de leurs mensonges".
- Quels ont été les effets de l'ouvrage de Luther sur le protestantisme et sur l'histoire allemande ?
- Sur le moment même, il n'a que peu d'effets: bien des expulsions sont prononcées sans que l'on ait besoin pour cela de ses recommandations. On a toutefois connaissance de mesures adoptées dans son sillage dans le Neumark, en Saxe ou encore en Hesse.
En outre, si sa réception et ses usages furent importants à l'époque de sa publication, y compris avec quelques condamnations par des contemporains de Luther, il semble que, passé le XVIe siècle, cette partie de l'oeuvre du théologien a en fait été assez oubliée. Aux XVIIe et XVIIIe siècles, les trois traités antijudaïques sont publiés de loin en loin isolément. Leur retour sur le devant de la scène commence dans les années 1830-1840 et c'est en 1920 que l'édition de Weimar qui fait référence achève de les rendre visibles.
On peut toutefois défendre que la présence d'une haine si forte dans une oeuvre si lue ne peut qu'avoir de lourds effets. Pour ainsi dire, avec "Des Juifs et de leurs mensonges", le vers est dans le fruit : l'antisémitisme est durablement légitimé. Avec lui, s'enclenche une certaine modernité allemande, qui n'est bien sûr ni toute l'Allemagne, ni toute la modernité. Que l'on songe aux accusations portées par Emmanuel Levinas contre la conscience philosophique occidentale et sa volonté totalisante.
Dans une telle perspective, Luther prendrait place dans la généalogie d'un universalisme devenu criminel, qui passerait par les Lumières et déboucherait sur la constitution d'un "problème" posé par les Juifs, perçus comme faisant obstacle à l'avènement de l'universel "illimité" ou "facile".
Je reprends ici la thèse proposée par Jean-Claude Milner dans "les Penchants criminels de l'Europe". Pour Milner, ce que les universalistes (adeptes d'une lecture plus ou moins sécularisée des épîtres de Paul) ne supportent pas dans le judaïsme, c'est le principe de filiation. Et en effet, ce principe est copieusement attaqué par Luther, dont on sait l'importance qu'il accordait à Paul.
Pour autant, peut-on inscrire Luther dans la succession des penseurs qui, à force d'universalisme "facile", ont fini par fabriquer le "problème juif" et ouvert la voie à la "solution finale" ? Circonstance aggravante pour le réformateur, c'est dans les années 1930-1940 que ses textes antisémites ont été le plus souvent cités - en un sens favorable, puisqu'il s'agit de récupérations par les nazis. L'une des plus célèbres récupérations est celle de Julius Streicher, directeur de "Der Stürmer" et vieux compagnon de Hitler, lorsqu'il déclara au procès de Nuremberg (1946) :
en fin de compte, [Luther] serait aujourd'hui à [sa] place au banc des accusés si ["Des Juifs et de leurs mensonges"] avait été versé au dossier du procès.
Autre indice frappant : la carte du vote nazi et celle du protestantisme au début des années 1930 se recoupent parfaitement, et, pourrait-on dire, terriblement. Pour autant, il paraît injuste de voir là de véritables effets de l'oeuvre de Luther. Dans la tradition antisémite de l'Allemagne, aujourd'hui bien évidemment interrompue, Luther joue un rôle, sans doute, mais il est difficile d'en faire la pesée.
L'historien Marc Bloch prononça une mise en garde fameuse contre l'"idole des origines", ce commencement "qui suffit à expliquer". Dans une généalogie, les crimes des générations postérieures ne sont pas imputables aux ancêtres. Bien responsable de ce qu'il a écrit, et qui l'accable, Luther ne l'est pas de la suite de l'histoire, surtout si cinq siècles le séparent de cette "suite" dramatique.

Auteur: Savy Pierre

Info: propos recueillis par Eric Aeschimann, Des Juifs et de leurs mensonges, par Martin Luther, éditions Honoré Champion, 212

[ Europe ]

 

Commentaires: 0

interprétation

Cinq adaptations "exemplaires" (littérature et cinéma)
Dès ses origines, le cinéma a tissé avec la littérature des liens contradictoires et complexes. Alors que le septième art a toujours tenté de s'affirmer comme art " autonome ", il a d'une manière constante puisé dans les classiques de la littérature pour se nourrir et s'enrichir. L'opinion commune veut qu'une adaptation cinématographique d'un texte littéraire soit vouée à être moins intéressante que l'oeuvre d'origine. Or un examen un peu attentif prouve que l'histoire du cinéma est truffée de chefs-d'oeuvre tirés de romans ou de pièces de théâtre. La question, dès lors, est de savoir comment le cinéma peut parvenir à traduire sur grand écran des oeuvres littéraires sans les trahir et en conservant sa propre singularité d'art " visuel ".
Entre littérature et cinéma, c'est une histoire immédiate. Lorsque Georges Meliès réalise, en 1902, Le voyage dans la lune, il s'inspire déjà du roman de Jules Verne De la terre à la lune. Et même lorsqu'il est encore muet, le cinéma trouve dans les oeuvres de Victor Hugo (L'homme qui rit de Paul Leni en 1928) ou d'Alexandre Dumas une inépuisable source d'inspiration.
Parce que le cinéma est parvenu à développer, au temps du muet, une grammaire et des articulations très fines, une esthétique qui n'appartient qu'à lui ; certains voient dans le passage au parlant une régression et un retour à la théâtralité, à la littérature.
Pourtant, les noces entre les deux arts s'avèrent fructueuses : les romans donnent naissance à de grands classiques de l'histoire du cinéma (citons, de manière exemplaire, Autant en emporte le vent de Victor Fleming) et les écrivains s'intéressent au septième art et passent parfois de l'autre côté de la barrière de manière ponctuelle (André Malraux réalisant Espoir en1938-39) ou plus régulière (Pagnol, Guitry, Duras et Robbe-Grillet érigeant de véritables oeuvres cinématographiques).
Au début des années 50 François Truffaut, alors jeune critique, s'en prend violemment au cinéma français " de qualité ", reprochant en particulier aux cinéastes de se contenter d'illustrer pour le grand écran des classiques du patrimoine littéraire de manière totalement académique (Le rouge et le noir d'Autant-Lara, Notre-Dame de Paris et La princesse de Clèves de Jean Delannoy, etc.). Il oppose à ce cinéma poussiéreux un cinéma à la première personne où le réalisateur serait, tel un écrivain,l'auteur d'une oeuvre personnelle et intime.
Pourtant, Truffaut comme les autres cinéastes de la Nouvelle Vague, adapteront à leur tour des oeuvres littéraires. A quel moment, peut-on dire qu'un film se contente d'illustrer platement un roman ou bien qu'il transcende son matériau d'origine pour offrir au spectateur une oeuvre cinématographique à part entière ?
La question est tellement vaste qu'un simple article ne suffirait pas à en épuiser toutes les dimensions. Alors de manière subjective, tentons de nous appuyer sur cinq films pour analyser les éléments qui entrent en compte dans le succès d'une d'une adaptation d'une oeuvre littéraire.
1- Des mots aux images : Mouchette (1967) de Robert Bresson (d'après Bernanos)
La première difficulté à laquelle se heurte un cinéaste, c'est de traduire de manière " visuelle " des mots qui sont, eux-mêmes, porteurs d'images. A vouloir se contenter uniquement des mots, on prend le risque de laisser de côté les questions de mise en scène cinématographique de ces mots et de retomber dans le piège de l'illustration académique (Cf. Germinal de Claude Berri). Du coup, les mots doivent devenir le corps même de l'oeuvre et certains vont s'y employer en procédant par accumulation (la parole qui s'emballe chez Guitry et Pagnol) ou par soustraction. Robert Bresson appartient à la deuxième catégorie. Lorsqu'il adapte Mouchette sur grand écran, il n'en est pas à sa première tentative de transposition d'une oeuvre littéraire. Il a déjà filmé Diderot (Les dames du bois de Boulogne) et Bernanos (Le journal d'un curé de campagne). Pour lui, pas question de trouver un système d'équivalences mais d'adapter les oeuvres de manière littérale (avec, par exemple, un recours à la voix-off ou des cartons). Dans Mouchette, la parole se raréfie et c'est la stylisation d'une mise en scène épurée jusqu'à l'extrême qui permet de traduire la noirceur du roman d'origine. Lorsque la petite Mouchette se suicide en roulant obstinément jusqu'à un cours d'eau, Bresson parvient à traduire l'âpreté du roman de Bernanos et nous bouleverse de manière indélébile.
2- L'anecdote : Le mépris (1963) de Jean-Luc Godard (d'après Moravia)
Une des difficultés de l'adaptation cinématographique est la question de l'anecdote. Beaucoup de cinéastes se sont contentés de prendre les romans comme de beaux scénarios. L'anecdote l'emporte sur l'invention cinématographique. C'est peut-être pour cette raison que les meilleures adaptations sont sans doute celles qui se sont appuyées sur des oeuvres littéraires mineures, permettant aux cinéastes de dépasser l'anecdote et d'injecter dans leurs films des thèmes personnels. Belle de jour de Kessel n'est pas un roman très intéressant. En revanche, Buñuel en a fait un chef-d'oeuvre du cinéma, une oeuvre totalement énigmatique et opaque où l'onirisme et l'ironie sont de mises. De la même manière, il est couramment admis que les films d'Hitchcock comme Rebecca et Les oiseaux sont supérieurs aux romans de Daphné du Maurier qui les ont inspirés.
A l'origine du Mépris, il y a un roman de Moravia que les connaisseurs s'accordent à trouver médiocre (j'avoue ne pas l'avoir lu) mais le plus important n'est pas dans l'anecdote mais dans la manière dont Jean-Luc Godard parvient à la transplanter sur son propre territoire : le cinéma, le mythe et les questions que le taraudent toujours : l'amour, la trahison, le malentendu...
3- La réappropriation : Shining (1980) de Stanley Kubrick (d'après Stephen King)
Toujours dans le même ordre d'idée, les romans regroupés parfois sous l'étiquette " mauvais genre " (la série noire, le fantastique, la science-fiction, l'érotisme...) furent de formidables réservoirs à récits pour les cinéastes. Certains écrivains de polars, comme Raymond Chandler, furent également scénaristes pour Hollywood. Parmi les auteurs contemporains oeuvrant dans le fantastique, Stephen King fut sans doute l'écrivain le plus adapté au cinéma, pour le meilleur (Dead Zone de Cronenberg, Carrie de De Palma, Stand by me et Misery de Rob Reiner...) ou pour le pire (Firestarter de Lester, Peur bleue...).
Avec Shining, nous nous trouvons face à un cas intéressant car il est évident que Stanley Kubrick trahit l'oeuvre originale (King ne s'est pas entendu avec le cinéaste et détestait cette adaptation) mais il se la réapproprie de manière totalement personnelle et livre un des plus beaux films d'épouvante jamais tourné. Avec ce film, le cinéaste tente de réaliser LE film d'horreur définitif (comme il cherchera à réaliser LE film de guerre absolu avec Full Metal Jacket) et nous offre une oeuvre mentale où l'espace de l'hôtel et du jardin qui l'entoure devient la projection d'un cerveau atteint par la folie.
4- Le style : Le temps retrouvé (1999) de Raoul Ruiz (d'après Marcel Proust)
Un des problèmes majeurs auxquels se heurtent les cinéastes projetant d'adapter une oeuvre littéraire, c'est celui du style. Si, au cinéma, l'anecdote importe moins que la mise en scène et le style du réalisateur ; il est évident que l'intérêt d'un livre tient avant tout à son style et non pas à son " histoire ".
C'est sans doute pour cette raison que certains grands stylistes n'ont jamais été adaptés au cinéma, que ce soit Céline ou James Joyce qui ne fut adapté que pour son récit le plus " classique " (Gens de Dublin par John Huston en 1987). Même si certaines tentatives maladroites ont été effectuées, certains romans conservent la réputation d'être inadaptables, que ce soit Belle du seigneur de Cohen ou A la recherche du temps perdu de Proust. Contrairement à ce que l'on entend parfois, Proust a fait l'objet de quelques adaptations cinématographiques. Parfois catastrophiques (le très académique Un amour de Swann de Schlöndorff avec Alain Delon en 1984), parfois intéressantes (La captive de Chantal Akerman), ces transpositions restèrent néanmoins assez éloignées de l'univers de l'écrivain. Dans Le temps retrouvé, c'est le caractère extrêmement mouvant de la mise en scène qui frappe. Ruiz a recours aux effets qu'il affectionne depuis toujours : juxtaposition du zoom et du travelling dans des directions opposées, décors mobiles, amples mouvements de caméra donnant la sensation d'un univers extrêmement fluctuant et éphémère. Grâce à ses partis pris de mise en scène, le cinéaste parvient à nous loger au coeur même de la tête de l'écrivain qui revient, à la veille de sa mort, sur son existence et son oeuvre, comme si tout était désormais écrit. Le film est donc à la fois une oeuvre cinématographique et une traduction assez juste de l'univers évanescent de Proust. Pour transposer à l'écran un écrivain au style unique, il fallait un styliste de la caméra !
5- Les limites : Salo ou les 120 journées de Sodome (1975) de Pier Paolo Pasolini (d'après Sade)
Dernier écueil auquel se heurte le cinéma : les limites de la représentation. Lorsque Apollinaire évoque un " soleil cou coupé " ou que Breton nous entraîne à sa suite dans un Paris mystérieux et poétique dans Nadja, on a du mal à concevoir quelles images photographiques pourraient traduire la poésie de ces mots et les gouffres imaginaires qu'ils entrouvrent.
Réaliste par essence, l'image cinématographique se heurte à certaines limites que ne connaissent pas les mots. Lorsqu'il s'agit de violence ou de sexe, il paraît littéralement impossible de montrer ce que les mots peuvent parfois dire. Une adaptation fidèle d'American psycho de Brett Easton Ellis serait tout bonnement insoutenable.
De la même manière, on imagine mal un film qui suivrait scrupuleusement les descriptions du marquis de Sade. Pourtant, le grand écrivain fut maintes fois adaptés au cinéma, de manière classique et édulcoré comme dans le Justine de Claude Pierson ou de manière plus originale (mais " soft ") dans Marquis de Sade : Justine de Jess Franco.
Lorsqu'il entreprend de filmer Les 120 journées de Sodome, Pasolini sort de sa " trilogie de la vie " où il exaltait les sens et une sexualité débridée en s'appuyant sur des oeuvres littéraires du passé (Les mille et une nuits, Le Décaméron de Boccace et Les contes de Canterbury de Chaucer). Mais ce qu'il voit autour de lui le rend pessimiste et il cherche désormais à dénoncer les excès du consumérisme dans lesquels s'inscrit la prétendue " libéralisation des moeurs ". Il choisit d'adapter Sade qu'il transpose à l'époque fasciste. Là encore, la réappropriation qu'il se permet de l'oeuvre du divin Marquis est une sorte de " trahison " mais elle lui permet de transgresser les limites de la représentation. On a vu des films beaucoup plus " pornographiques " ou même plus violents mais le style glacial de Pasolini confère à cette oeuvre un caractère éprouvant et en fait un des films les plus effrayants jamais tourné.
Il y aurait sans doute beaucoup d'autres choses à dire sur ces liens paradoxaux entre le cinéma et la littérature mais ces quelques idées jetées de manière maladroite ici ont déjà pris beaucoup de place. Il ne vous reste plus qu'à vous laisser réagir et à vous inciter à citer des adaptations que vous trouvez réussies...

Auteur: Internet

Info: Dr Orlof, http://drorlof.over-blog.com/

[ texte ] [ image ]

 

Commentaires: 0

mort imminente

Pourquoi les mourants sont souvent pris d'un accès de lucidité

De nouvelles recherches révèlent des niveaux d'activité surprenants dans les cerveaux des mourants et peuvent contribuer à expliquer la clarté soudaine que ressentent de nombreuses personnes atteintes de démence à l'approche de la mort.

Longtemps au centre des préoccupations des religions, de la philosophie et de la littérature du monde entier, l'expérience consciente de la mort a récemment fait l'objet d'une attention croissante de la part de la science. Cela se produit alors que les progrès de la médecine étendent la capacité de maintenir le corps en vie, ouvrant progressivement une fenêtre sur l'ultime pièce fermée à clé : les derniers instants de vie d'un esprit humain.

"Vers 1959, l'homme a découvert une méthode pour faire redémarrer le cœur de personnes qui seraient mortes, et nous avons appelé cela la réanimation cardio-pulmonaire", explique Sam Parnia, médecin en soins intensifs à la NYU Langone Health. Sam Parnia a étudié les souvenirs des personnes réanimées à la suite d'un arrêt cardiaque, des phénomènes qu'il qualifie d'"expériences rappelées entourant la mort". Avant la mise au point des techniques de réanimation cardio-pulmonaire, l'arrêt cardiaque était pratiquement synonyme de mort. Aujourd'hui, les médecins peuvent réanimer certaines personnes jusqu'à 20 minutes ou plus après que leur cœur a cessé de battre. En outre, selon M. Parnia, de nombreuses cellules cérébrales restent intactes pendant des heures, voire des jours, après la mort, ce qui remet en question notre idée d'une frontière rigide entre la vie et la mort.

Les progrès de la technologie médicale et des neurosciences, ainsi que les changements de perspective des chercheurs, sont en train de révolutionner notre compréhension du processus de mort. Les recherches menées au cours de la dernière décennie ont mis en évidence une augmentation de l'activité cérébrale chez les humains et les animaux victimes d'un arrêt cardiaque. Dans le même temps, de vastes enquêtes documentent les périodes de lucidité apparemment inexplicables dont le personnel des hospices et les familles endeuillées déclarent souvent avoir été témoins chez les personnes atteintes de démence qui sont en train de mourir. Le poète Dylan Thomas a adressé à ses lecteurs le célèbre avertissement suivant : "Ne t'endors pas doucement dans cette bonne nuit. Rage, rage contre l'extinction de la lumière". Mais à mesure que l'on consacre davantage de ressources à l'étude de la mort, il apparaît de plus en plus clairement que la mort n'est pas un simple affaiblissement de la lumière interne de la conscience, mais plutôt un processus incroyablement actif dans le cerveau.

QU'EST-CE QUE LA LUCIDITÉ TERMINALE ?

Depuis des décennies, les chercheurs, les soignants des hospices et les membres des familles stupéfaits observent avec effroi les personnes atteintes de la maladie d'Alzheimer ou d'autres formes de démence qui retrouvent soudainement leurs souvenirs et leur personnalité juste avant de mourir. Pour les membres de leur famille, cela peut ressembler à une seconde vie, mais pour de nombreux professionnels de la santé expérimentés, cela peut être le signe que la fin est proche. Christopher Kerr, directeur général et médecin en chef du Center for Hospice and Palliative Care à Buffalo, dans l'État de New York, a étudié les visions lucides de plusieurs centaines de malades en phase terminale. Il affirme que ces événements "se produisent généralement dans les derniers jours de la vie". Selon Andrew Peterson, de l'université George Mason, chercheur en bioéthique et en conscience, coauteur d'une étude sur ce phénomène commandée par les National Institutes of Health, cette "lucidité terminale" se définit comme le retour inattendu de facultés cognitives telles que la parole et la "connexion" avec d'autres personnes.

Cette connectivité va au-delà du retour de la capacité de communication et de la conscience de la situation perdues. Une chose qui semble être très profonde pour les membres de la famille qui observent la lucidité est l'émergence de ce que nous appelons l'"ancien moi"", explique Peterson. "Il semble évident qu'ils sont conscients non seulement de leur environnement, mais aussi de leurs relations avec les autres, qu'il s'agisse de l'utilisation d'un surnom ou d'une référence à une plaisanterie de longue date.

Aussi surprenants que ces événements puissent paraître, ils sont assez courants. "Notre étude n'était pas une étude de prévalence", précise Jason Karlawish, gérontologue au Penn Memory Center et chercheur principal de l'étude des NIH. Néanmoins, ajoute-t-il, "nous avons constaté que la lucidité était plus fréquente qu'exceptionnelle chez les patients atteints de démence, ce qui suggère que l'idée qu'elle se passe en phase terminale n'est pas tout à fait correcte". Il suggère plutôt de considérer les épisodes de lucidité comme faisant partie de "l'expérience de la maladie" plutôt que comme des événements aberrants. "Nous avons en fait constaté que plusieurs de ces épisodes se sont produits des mois, voire des années, avant le décès de la personne", note M. Karlawish. Malgré cela, de nombreux experts, dont Kerr et Parnia, s'accordent à dire que la plupart de ces épisodes sont associés à l'approche de la mort. "C'est un peu comme s'ils se préparaient à mourir", dit Parnia.

Les implications potentielles de ces résurgences cognitives temporaires et généralisées sont profondes. "Cela suggère qu'il peut y avoir des réseaux neuronaux restants, et/ou des voies et des fonctions neuronales, qui pourraient aider à restaurer les capacités cognitives de personnes que nous pensons être définitivement déficientes", explique Peterson.

Néanmoins, la recherche sur ce phénomène n'en est qu'à ses débuts. "Nous ne savons pas vraiment ce qui se passe dans le cerveau pendant le processus de mort et qui pourrait, d'une manière ou d'une autre, être lié à ces épisodes", explique M. Peterson. Malgré cette incertitude, d'autres recherches sur l'activité cérébrale à l'approche ou au moment de la mort pourraient permettre aux scientifiques et aux cliniciens de mieux comprendre certains des processus qui se déroulent dans le cerveau malade et mourant.

QUE SE PASSE-T-IL DANS LE CERVEAU AU MOMENT DE LA MORT ?

Dans une étude publiée en mai dans Proceedings of the National Academy of Sciences USA, des chercheurs de l'université du Michigan ont observé un regain d'activité cérébrale organisée chez deux personnes comateuses sur quatre qui subissaient un arrêt cardiaque après avoir été débranchées de leur respirateur artificiel. Ces travaux s'appuient sur plus d'une décennie de recherche sur les animaux, notamment une étude PNAS de 2013 qui a révélé une augmentation similaire de l'activité cérébrale synchronisée chez des rats exposés à une toxine cardiaque et une étude de 2015 dans laquelle des rats ont été tués par asphyxie. Dans toutes ces études, les chercheurs ont constaté que l'activité des ondes gamma augmentait dans les premières minutes de l'arrêt cardiaque, puis cessait. Les ondes gamma sont une fréquence d'ondes cérébrales typiquement associée à l'éveil, à la vigilance et à la mémoire.

Jimo Borjigin, neurologue et professeur agrégé de physiologie moléculaire et intégrative à l'université du Michigan, a participé aux trois études. La poussée d'ondes gamma chez les sujets mourants était particulièrement intense dans une région du cerveau que Borjigin appelle la "zone chaude corticale postérieure", située près de l'arrière du crâne. D'autres chercheurs pensent que cette région pourrait également être essentielle à l'expérience consciente. Les parties du cerveau situées dans cette zone sont liées à la perception visuelle, auditive et du mouvement, un phénomène qui, selon Mme Borjigin, est impliqué dans les expériences extracorporelles rapportées par les personnes qui ont frôlé la mort et s'en sont remises. Elle ajoute que les modèles d'activation des ondes gamma, semblables à ceux observés chez les personnes comateuses, sont associés à des activités qui incluent la reconnaissance d'une image familière, telle qu'un visage humain, chez les personnes en bonne santé.

Dans les études humaines et animales, le cerveau des sujets a montré un pic d'activité après la réduction soudaine de l'apport en oxygène, explique Mme Borjigin. "Il commence à activer ce mécanisme homéostatique pour récupérer de l'oxygène, soit en respirant plus fort, soit en accélérant le rythme cardiaque", ajoute-t-elle. Mme Borjigin émet l'hypothèse qu'une grande partie de l'augmentation de l'activité cérébrale plus complexe observée chez les humains et les animaux en arrêt cardiaque résulte également du fait que le cerveau tente de rétablir l'homéostasie, ou l'équilibre biologique, après avoir détecté un manque d'oxygène. Elle suppose en outre que ces mécanismes de survie peuvent être impliqués dans d'autres changements cognitifs entourant la mort. "Je pense que la lucidité terminale des patients atteints de démence peut être due à ce type d'efforts ultimes du cerveau" pour se préserver lorsque les systèmes physiologiques sont défaillants, explique Mme Borjigin.

M. Parnia, de NYU Langone, pense lui aussi que la réaction du cerveau à la perte d'oxygène est au moins partiellement responsable des expériences lucides entourant la mort. Entre 2017 et 2020, Parnia a dirigé une étude appelée AWARE II, dans laquelle les chercheurs ont surveillé l'activité cérébrale de plus de 500 personnes gravement malades aux États-Unis et au Royaume-Uni qui recevaient une réanimation cardio-pulmonaire. Les patients ont été exposés à des stimuli audiovisuels pendant la RCP afin de tester leur mémoire des événements survenus après l'arrêt cardiaque. Ceux qui ont survécu ont ensuite été interrogés sur leur degré de conscience pendant le processus de réanimation. Selon Parnia, un survivant sur cinq a fait état d'expériences lucides survenues après l'arrêt de son cœur. L'équipe AWARE II a également observé un pic inattendu dans l'activité cérébrale pendant la réanimation cardio-pulmonaire. "Dans les 20 secondes qui suivent l'arrêt cardiaque, le cerveau est à plat", explique M. Parnia. Cependant, "généralement dans les cinq minutes qui suivent - mais cela peut être plus long - nous constatons la réapparition d'une période transitoire d'électricité cérébrale". Il ajoute que les fréquences d'activité cérébrale observées sont similaires à celles associées à l'expérience consciente.

Parnia pense que le cerveau mourant perd les mécanismes de suppression habituels qui nous permettent de nous concentrer sur des tâches individuelles au cours de notre vie quotidienne. "Lorsque vous mourez, votre cerveau est privé d'oxygène et de nutriments, et il s'éteint", explique M. Parnia. "Ce processus d'arrêt supprime les freins... et soudain, ce qui semble se produire, c'est qu'il vous donne accès à des parties de votre cerveau auxquelles vous n'avez normalement pas accès.... Toutes vos pensées, tous vos souvenirs ou toutes vos interactions avec les autres sortent. Mais il insiste sur le fait que les expériences des personnes qui subissent un arrêt cardiaque sont lucides et ne sont pas de simples hallucinations. "Ils ne sont pas dans le délire", affirme Parnia à propos des personnes réanimées qu'il a étudiées, et ce qu'ils vivent "n'est pas un rêve ou une hallucination". Bien que ses études précédentes aient porté sur des personnes réanimées gravement malades, Parnia pense que la lucidité terminale chez les personnes comateuses ou atteintes de démence peut être le produit d'un processus similaire. Il participe actuellement à une étude sur ce dernier phénomène.

Les expériences conscientes des mourants n'ont pas encore trouvé d'explication complète. Mais les recherches montrent de plus en plus que la mort est un processus incroyablement actif et complexe - et, ce qui est peut-être plus important, "un processus humanisé", comme le décrit Kerr. Quant aux personnes atteintes de démence, M. Karlawish estime qu'au lieu de supposer que leur conscience a été irrévocablement modifiée, "nous devrions tout de même prêter une attention particulière à leur esprit, car certains aspects sont encore présents, même s'ils peuvent être très endommagés".





 

Auteur: Internet

Info: https://www.scientificamerican.com/article/why-dying-people-often-experience-a-burst-of-lucidity - Jordan Kinard le 12 juin 2023. Jordan Kinard a été stagiaire au sein du service d'opinion de Scientific American. Il est diplômé de l'université de Columbia.

[ homme-animal ] [ dégénérescence présénile ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

annales

Les régimes institutionnels de la mémoire

On pourrait distinguer la reproduction biologique (un individu se reproduit en individus de la même espèce), l’élevage (on sélectionne par la reproduction un profil génétique donné), la domestication (les êtres humains éduquent des animaux, transmettant par le dressage pratiques et comportements) et enfin l’éducation où des individus d’une espèce enseignent à leurs progénitures leurs propres acquis. La domestication n’est pas l’éducation car ce ne sont pas les animaux qui dressent leurs petits, mais leurs maîtres.

La culture commence quand, au delà du patrimoine génétique, des contenus, pratiques et savoir faire sont transmis d’une génération à une autre. Autrement dit, quand il s’agit de passer de l’élevage à l’éducation, de la répétition des capacités propres à l’espèce à la transmission des contenus acquis.

Cela implique d’une part la prise de conscience d’un déjà-là constitué et d’autre part la mise en place d’outils et procédures pour l’entretenir et donc le transmettre. Il s’agit d’avoir des institutions du sens qui régissent, au niveau d’une société ou d’un collectif, les pratiques culturelles et les modalités de leur transmission.

À travers la notion d’institution, nous visons trois caractéristiques principales : la tradition qui sanctionne l’existence d’un déjà-là ("c’est ainsi que l’on a toujours fait"), une normalisation, qui ajuste et régule ses modalités d’expression selon certains critères ("c’est ainsi qu’il convient de faire"), une transmission qui assure une pérennisation de la tradition, de cet héritage reçu et donc à léguer ("c’est ce qu’il faut continuer de faire"). Les institutions du sens sont donc toujours traditionnelles et normatives, garantes de la culture comme acquis constitué et à transmettre. On retrouve ainsi les institutions scolaires, patrimoniales, culturelles, etc. De la langue qu’on apprend à maîtriser même quand elle est sa langue maternelle pour qu’elle devienne sa langue de culture et de réflexion [Judet & Wisman 2004], aux pratiques traditionnelles (cuisines, artisanat) en passant par les pratiques savantes, la culture est un déjà-là qui s’autonomise en tradition normée pour pouvoir être transmise. C’est le rôle et la mission des institutions du sens que d’accompagner la constitution de la tradition normée et d’en assurer la transmission.

La tension propre à ces institutions sera le conflit permanent entre d’une part la normalisation des contenus et d’autre part une transmission autorisant leur appropriation et transformation. Comment transformer sans trahir, comment transmettre sans figer, est la question que doit traiter toute institution du sens. Si la norme donne les conditions de la répétition et de la conservation du déjà-là, l’invention et l’appropriation seront les conditions pour que ce déjà-là reste accessible, signifiant, exploitable voire utile dans l’environnement contemporain. Une norme formelle et dogmatique rend le déjà-là sans intérêt, une appropriation dérégulée revient à une perte de mémoire et de sens.

Si les institutions du sens reposent en leur possibilité sur la constitution d’un déjà-là et sa reconnaissance comme tel, il en ressort qu’on en passe nécessairement par une institutionnalisation de la mémoire qui a pour fonction de fixer le périmètre du déjà-là, de définir les règles de son accroissement et de son enrichissement, et de proposer des modalités de sa consultation, partage et transmission. Les institutions de la mémoire seront donc des instances nécessaires à la reconnaissance d’un déjà-là constitué et à sa pérennisation.

Il y a plusieurs manières de mettre en place de telles institutions et d’en fixer les missions et les contours. Notre civilisation, au cours de son histoire longue, en distingue selon nous quatre modalités principales [Bachimont 2017] : la mémoire de la preuve (les archives), celle de l’œuvre (les bibliothèques et les musées), celle de l’information (les centres de documentation et de ressources) et enfin l’identité culturelle (le patrimoine).

Aussi anciennes que l’écriture elle-même, les archives [Delsalle 1998] sont avant tout une mémoire de l’événement, une trace de ce qui s’est passé, la permanence de cette dernière permettant de pallier l’évanescence de l’événement. L’archive possède une relation organique à ce dont elle est archive : causée par l’événement dont elle consigne la mémoire, l’archive est le signe, par son existence même, de l’événement et du fait qu’il a bien eu lieu. À travers une telle relation organique, on veut insister sur le fait que, même si l’archive est un document produit par des collectifs culturels, elle est néanmoins provoquée, produite quasi naturellement par l’événement qu’elle relate. Autrement dit, elle n’est pas altérée par un processus interprétatif qui viendrait se mettre en l’événement et sa trace. Pour reprendre la belle image de Marie-Anne Chabin [2000], "Les archives procèdent de l’activité de leur auteur comme les alluvions découlent du fleuve", comme si elles consistaient en un processus naturel.

Ainsi, plus tekmerion que semeion, indice que symbole ou icône *, même si en pratique, il faut bien en passer par l’interprétation et les conventions qui lui sont inhérentes, l’archive peut être la preuve que recherchent l’historien, le juge ou l’enquêteur. Mais, puisque l’événement produit le document, ce dernier ne peut être une preuve pleine et entière que si le seul moyen de produire le document qui deviendra l’archive est que l’événement se soit produit. Par exemple, l’acte notarié est ainsi conçu que la seule manière d’avoir un acte est que l’événement associé (une transaction par exemple) ait eu lieu. Sinon, c’est un faux, c’est-à-dire un document établi pour faire croire que l’événement a eu lieu. L’archive officielle est donc une preuve déductive (si on dispose de l’archive, alors l’événement a eu lieu), les autres ont plutôt une valeur abductive plutôt que déductive (si on dispose de l’archive, la cause la plus probable ou la plus simple est que l’événement ait eu lieu mais on en reste à une présomption). C’est la raison pour laquelle l’authenticité, au sens où le document est bien ce qu’il prétend être, est si fondamentale pour les archives. C’est en effet cette dernière qui permet de retracer le schéma causal qui a produit le document à rebours, en remontant à l’événement.

La seconde modalité ou institution de mémoire mobilise les traces du génie humain, autrement dit ce qui reflète les productions de l’esprit et de la culture. Il ne s’agit pas tant d’avoir des preuves de l’événement que de disposer des traces de ce qui a été pensé ou de ce qui fut créé. L’enjeu n’est pas de savoir ce qui s’est passé, mais de connaître comment cela a été pensé. Du monde comme événement (le fait relaté par un témoignage), on remonte à la culture comme monument (le témoignage comme fait). L’authenticité n’est plus ici gagée par le lien organique entre l’événement et le document, mais entre ce dernier et son auteur. L’authenticité reposera sur l’attribution de son auteur et la détermination du contexte de création pour pouvoir en déduire le sens qu’on peut lui conférer. Les institutions en charge des œuvres sont les bibliothèques, les musées, les conservatoires. L’enjeu n’est pas tant de connaître le passé pour lui-même, mais de se reposer sur les œuvres du passé pour appréhender une part des possibilités du génie humain, une province du sens et de l’être. Les œuvres du passé n’appartiennent pas à un passé révolu, mais au présent, un présent permanent et continuel car les œuvres, sitôt produites, restent un témoignage vivant qu’il est toujours temps et opportun de recevoir. Cela ne veut pas dire qu’il n’est pas important de prendre en compte leur historicité ni leur contexte originel, mais qu’en tant que créations humaines, il est toujours actuel et pertinent pour les êtres humains de les recevoir, accueillir et interpréter.

La troisième institution de la mémoire est celle du savoir, de la connaissance et de l’information. Ni preuve ni œuvre, l’information est le savoir anonyme, sans auteur, apportant la connaissance d’un fait, d’un procédé ou d’un raisonnement possibles. Information de personne, mais information pour tous, l’information prend sa valeur à partir de l’institution qui la produit, ou le processus qui la constitue. De l’information savante gagée par la publication scientifique et son système de relecture par les pairs, à l’information journalistique fondée sur une régulation spécifique, en passant par l’institution scolaire et ses programmes, l’information doit être produite par une institution qui lui sert de caution pour être reçue comme telle et valoir comme connaissance. On comprend qu’une telle notion d’information est le cœur même des activités relevant de ce qu’on a appelé par la suite "l’information scientifique et technique", et qu’elle se formalisa lors de la révolution industrielle [Briet 1951]. Une dimension spécifique de l’information, et faisant rupture avec les figures plus anciennes de l’archive et de la bibliothèque (les preuves et les œuvres), est l’indépendance ou plutôt l’indifférence au support. Peu importe que le document soit un article ou un livre, un journal ou une encyclopédie, numérique ou matériel, il n’importe que par l’information qu’il détient. Derrière cette indifférence se cache un présupposé selon lequel le contenant n’influe pas sur le contenu, que le support matériel ne conditionne pas l’intelligibilité de l’inscription consignée sur le support. Présupposé qu’il est facile de réfuter, aucun changement de support ne pouvant être neutre quant à l’intelligibilité du contenu [Bachimont 2010]. Mais on peut voir derrière ce présupposé, non une erreur quant à la réalité de la dépendance du contenu au contenant, mais l’intérêt exclusif pour un invariant sémantique commun aux différentes expressions rencontrées sur différents supports, où l’on s’intéresse au fait, par exemple, que l’eau bout à 100°, indépendamment de l’expression qui nous a permis d’en prendre connaissance.

Cette conception abstraite du support de l’information entraîne un intérêt exclusif à l’inscription comme expression, à sa grammaire et à son lexique. Privilégiant la forme sur la matière, l’information a un tropisme naturel vers la formalisation et la circulation : formalisation car il s’agit de contrôler l’information uniquement à partir de sa forme, indépendamment de son support ; circulation parce que cette indifférence au support permet en principe la migration d’un support à un autre sans altération de l’information. Cela aboutit fort logiquement aux initiatives comme le Web des données (ou Web sémantique) où le formalisme de l’expression assure les conditions de son interprétation et de sa circulation.

Enfin, le dernier régime est celui de l’identité culturelle ou celui du patrimoine. Ce régime est le plus indéterminé des quatre considérés ici dans la mesure où il mobilise le rapport fondamental à la mémoire et à la culture : il concerne tout objet permettant à un collectif d’accéder à une mémoire, à la mémoire de son identité collective. Le patrimoine est donc, pour utiliser le vocabulaire de Gilbert Simondon [2005], ce qui permet l’individuation d’une identité collective et la constitution d’objets comme vecteurs de cette dernière. Le patrimoine est donc un jeu triple entre des objets, des individus, et un collectif tissant ces derniers ensemble. Aussi tout objet peut-il, en principe, devenir patrimonial, les règles de l’individuation n’étant pas fixées a priori. On ne peut que constater a posteriori que tels ou tels objets "font patrimoine".

L’identité collective est un déjà-là revendiqué et assumé par le collectif. Il s’agit d’une mémoire reconnue comme étant la sienne et associée à un objet qui l’incarne et la porte. Mais la seule caractéristique de cet objet est qu’il est distingué dans sa capacité de porter un souvenir, d’incarner une mémoire, de véhiculer un sens partagé. En ce sens, l’objet patrimonial est un mnémophore, un porteur de mémoire, en plagiant le néologisme naguère proposé par Krzystof Pomian, le sémiophore [1996].

L’objet patrimonial, le mnémophore, ne s’oppose pas aux autres régimes de mémoire que nous avons distingués, mais les intègre comme des modalités possibles de sa déclinaison. En effet, les preuves, œuvres et informations sont porteuses de mémoire et permettent par leur entremise un rapport au passé.

Auteur: Bachimont Bruno

Info: https://journals.openedition.org/signata/2980. *CS Peirce (1978) Écrits sur le signe. Paris, Seuil.

[ conservatisme ] [ pré-mémétique ] [ damnatio memoriae ] [ diachronie ] [ sciences ] [ humaines tiercités ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

covid 1984

Dans un récent entretien avec Vice, le dénonciateur de la NSA, Edward Snowden, a exprimé ses inquiétudes concernant le programme de surveillance à venir, l’appelant "l’architecture de l’oppression". Nous avons demandé à Lucien Cerise son analyse du nouveau contrôle social à venir.



R/ L’état d’urgence sanitaire est-il pour vous un bon moyen pour les gouvernements mondiaux de poursuivre la réduction de nos libertés collectives et individuelles ? Pour vous, le confinement est-il un instrument d’ingénierie sociale ?



- Cet état d’urgence sanitaire est le prétexte idéal pour tenter de fabriquer le consentement des populations à une transformation du lien social sur une base transhumaniste, c’est-à-dire fondée sur un encadrement scientifique général, présentant un fort caractère carcéral et concentrationnaire, et allant dans le sens de l’artificialisation et de la réification du vivant, sa chosification, sa réduction à un objet. On peut reprendre à Michel Foucault et Giorgio Agamben la notion de biopouvoir pour décrire un pouvoir politique qui étudie la biologie, la médecine et les sciences de la vie autant que le droit ou l’économie. Le biopouvoir, qui n’est qu’une mise à jour de la notion d’eugénisme, se caractérise donc par une intrusion toujours croissante dans l’intimité physique des gens pour la modifier et surtout la contrôler.



En effet, ce qui dérange le biopouvoir, c’est la prolifération de la vie et de l’organique, impossible à contrôler totalement. Le transhumanisme est une tentative d’enfermement de l’organique dans une forme prétendument augmentée, mais surtout aseptisée, standardisée et sous contrôle, tentative de meurtre du vivant et de son aspect toujours imprévisible et débordant. Les gens normaux se refusent donc naturellement au transhumanisme. Pour parvenir à les emprisonner là-dedans malgré tout, il faut les séduire ou leur faire peur, afin de les soumettre volontairement par des manœuvres d’ingénierie sociale du type "pompier pyromane" et triangle de Karpman, consistant à exploiter les projections psycho-émotionnelles de la trilogie bourreau/victime/sauveur.



Cela commence par le déclenchement d’une crise, suivi d’une opération d’hameçonnage (phishing), c’est-à-dire un piratage de l’esprit par usurpation d’identité et abus de confiance, où le responsable de la crise, en position de "bourreau", se présente comme le "sauveur" qui va protéger les "victimes" de la crise. Quand le piratage est accompli, que le bourreau a gagné la confiance de la population victime et qu’elle s’ouvre à lui en abaissant ses défenses parce qu’elle le perçoit comme un sauveur, alors le pirate-bourreau peut passer à la deuxième phase sans rencontrer de résistance, c’est-à-dire la réécriture de l’architecture sociale selon un nouveau plan présenté comme une solution de sortie de crise. Cette restructuration du lien social consiste à prendre le contrôle des relations que les gens entretiennent librement pour les recomposer à leur place. Comment ? Cela se fait toujours en jouant sur les relations de confiance et de méfiance, afin de prendre le contrôle des relations de proximité et de distance. Avec cette crise du coronavirus, la relation à autrui et au monde est réécrite pour être fondée sur la méfiance et la paranoïa, selon une sorte de conflit triangulé généralisé, où chacun est potentiellement bourreau de chacun. Je dois apprendre à me méfier d’autrui et de la nature, avec le maintien d’une distance entre moi, autrui et le monde, et cette distance m’est dictée par le biopouvoir auquel, en revanche, je suis tenu d’accorder une confiance aveugle, au risque d’être accusé de "conspirationnisme" et d’encourir des représailles judiciaires. En résumé : pour le biopouvoir, cette crise du Covid-19 doit couper l’Histoire en deux et faire entrer l’humanité dans une nouvelle ère où l’auto-organisation du vivant sera progressivement abolie pour être entièrement subordonnée et rationalisée par un pouvoir scientifique eugéniste.



R/ La surveillance numérique de masse passe par les fameuses applications d’Apple ou de Google de contrôle sanitaire. Comment les États et les grandes multinationales de la Silicon Valley se partagent les informations et les rôles dans cette opération ?



Les États et les grandes multinationales sont toujours en fait dirigés directement ou indirectement par ce que l’on appelle le complexe militaro-industriel, qui n’est pas exclusivement américain, chaque pays possède le sien, mais celui des USA est le plus agressif. L’avant-garde de la recherche scientifique est toujours sponsorisée, surveillée et récupérée en premier lieu par les unités de "recherche et développement" militaires. Au niveau géopolitique international, tout est militarisé (weaponized, comme disent les anglophones), tout est rapport de forces, tout est volonté de puissance et relations dominant/dominé. Les applications de géolocalisation et de surveillance numérique de masse sont des outils de contrôle social, c’est-à-dire en fait de militarisation des comportements.



Nous sommes dans une guerre hybride mondiale. Par exemple, la Chine, qui est sous attaque permanente des USA et des réseaux de George Soros, a besoin de militariser et discipliner sa population par un encadrement informatique global. Afin de conserver sa souveraineté numérique et le contrôle de sa population, la Chine doit aussi prévenir et limiter les risques de piratages informatiques de l’étranger, d’où la campagne lancée par Pékin pour débarrasser totalement son parc informatique des systèmes d’exploitation étrangers, dont le plus connu est Windows de Microsoft, et développer de nouveaux systèmes d’exploitation et outils informatiques de conception chinoise et fabriqués en Chine, et qui seront dépourvus des backdoors et autres logiciels espions de la NSA.



À terme, la Chine va donc devenir un trou noir pour les services de renseignement anglophones, les Five Eyes de l’accord UKUSA et du système Echelon, et leurs associés israéliens et autres. Dans quelques années, il sera pratiquement impossible de pirater, espionner et attaquer le parc informatique chinois, qui sera beaucoup mieux sécurisé qu’aujourd’hui. Cet exemple chinois aura une forte capacité d’entraînement à l’internationale et fera des émules par effet domino en Asie et partout dans le monde. On comprend que cette émancipation chinoise de l’hégémonie numérique occidentale provoque un vent de panique de la Silicon Valley à Washington en passant par Tel-Aviv : c’est la fin du projet néoconservateur de domination mondiale. Ce qui ne veut pas dire que le gouvernement chinois va instaurer le paradis sur Terre, mais qu’il pourra certainement relâcher la surveillance de sa population quand les risques de déstabilisation de la Chine par des attaques extérieures et intérieures de cinquièmes colonnes pro-occidentales auront été jugulés.



R/ Les Français auront-ils le choix de refuser le traçage numérique ?



Pour le biopouvoir, il n’est pas prévu que nous ayons le choix. Comme beaucoup de gens, je vois les pièces du puzzle s’assembler depuis un certain temps, mais c’est l’affaire de Tarnac en 2008 qui a joué pour moi un rôle de catalyseur et m’a poussé à rédiger un texte que j’ai publié sous anonymat, Gouverner par le chaos – Ingénierie sociale et mondialisation.



J’exposais dans cet opuscule comment certaines forces politiques et économiques cherchaient à implémenter une dictature numérique au moyen d’une stratégie du choc qui pouvait être une épidémie, et je citais à l’appui de cette prospective un texte manifeste de 2004, le Livre Bleu, rédigé par le lobby du numérique en France, le GIXEL (devenu ACSIEL en 2013), dans lequel étaient exposés certains stratagèmes pour faire accepter dans l’opinion publique le développement de l’identité numérique. Dans le cadre de sa fondation ID-2020, Bill Gates élabore aussi un système d’identification numérique pour le monde entier et cherche à le vendre ainsi : à cause du coronavirus, il faut vacciner toute la planète, et nous devons tous recevoir un certificat numérique de vaccination. Plusieurs technologies de certificat numérique plus ou moins invasives sont à l’étude : dans votre Smartphone ; dans un bracelet électronique ; sur la peau sous forme de tatouage à points quantiques ; sous la peau sous forme de puces électroniques. Si finalement nous pouvons avoir le choix et échapper à ce sort, c’est parce que nous aurons remporté le rapport de forces pour dire "Non !" Tout est axé autour de la formule confinement/distanciation sociale/vaccination/surveillance électronique, dont il faut attaquer chaque point.



R/ Que nous réserve la suite des événements, selon vous ?



En fait, il faut se poser la question : comment vais-je peser sur la suite des événements ? Il faut sortir du rôle de spectateur ou d’analyste des événements, il faut créer les événements. Le biopouvoir mondialiste a de gros moyens financiers pour créer des événements au niveau international, impacter le réel et écrire l’Histoire. Il possède des millions, donc, en face, nous devons être des millions.



Nous n’avons pas le capital économique, mais nous avons le capital humain. Pour créer l’événement, impacter le réel et écrire l’Histoire contre le biopouvoir, pour faire dérailler son programme, il faut se poser deux questions concrètes : comment gagner la bataille de l’opinion publique et comment organiser les masses politiquement ?



La bataille de l’opinion publique se gagne en se formant aux méthodes de communication stratégique et d’ingénierie sociale, rhétorique et retournement de l’opinion (spin), dans le réel ou sur les réseaux sociaux, du moins tant que c’est possible, car la prochaine crise devrait être cyber et toucher Internet, comme l’a annoncé Alain Bauer. Cette grande crise cybernétique et numérique, d’ampleur géopolitique et déclenchée par un virus informatique qui provoquerait le "bug du siècle", permettra au pouvoir de couper Internet au moins partiellement, et surtout de mettre fin à la réinformation indépendante avec un bon prétexte. C’est le programme du Grand Confinement, par l’addition du confinement physique et du confinement mental – cognitif et informationnel.



Le but ultime est d’abolir toute auto-organisation du peuple, donc toute autonomie dans l’organisation horizontale de la société. Pour cela, il faut d’abord couper les gens physiquement les uns des autres dans le réel, par le confinement physique, la distanciation sociale, le télétravail, et tenter de pérenniser ce nouvel ordre social en annonçant que "plus rien ne sera comme avant", comme on nous le martèle depuis des semaines. Puis, dans un deuxième temps, au prétexte d’une crise numérique globale, le pouvoir coupera les gens les uns des autres dans le virtuel aussi, avec un Internet en mode dégradé, limité au télétravail et à quelques messageries et portails inoffensifs, usages qui seront malgré tout conservés, ce qui sera présenté comme une victoire. Il faut essayer d’imaginer l’enfer que serait un confinement physique sans Internet, c’est-à-dire sans aucun accès à la réinformation, sans aucune possibilité de comprendre ce qui se passe car nous serions enfermés physiquement à domicile, ou dans un périmètre limité, et enfermés mentalement dans la narration exclusive du pouvoir, dans une seule version des événements. Dans d’autres publications, j’ai baptisé cette fabrique de l’aliénation mentale "reality-building", car elle repose sur le principe de l’hypnose : la parole de l’hypnotiseur devient la réalité de l’hypnotisé. 



Comment cela est-il possible ? Parce que l’hypnotisé, qui n’est pas forcément endormi, n’a pas d’autre source d’information que la parole de l’hypnotiseur. Avant d’en arriver là, avant qu’il ne soit trop tard, il y a urgence à gagner le combat politique, ce qui signifie prendre le pouvoir, et ne pas se contenter des contre-pouvoirs, dans la rue ou sur Internet, qui risquent fort de devenir impraticables de toute façon. Prendre le pouvoir signifie être en capacité de se faire obéir par les forces de l’ordre. L’activité métapolitique n’est donc pas suffisante, il faut investir aussi le champ politique du pouvoir légal. Les forces de l’ordre, qui ont une capacité de contrainte sur votre corps et votre esprit, n’obéissent pas à la métapolitique mais au gouvernement et à ses représentants locaux, c’est-à-dire à l’État. Il faut donc reprendre le contrôle de l’État si nous voulons sortir de l’impuissance à laquelle la métapolitique nous limite. Ceci suppose d’organiser les masses de manière structurée dans une perspective de conquête du pouvoir, ce qui suppose à son tour, et inévitablement, de jouer le jeu quelque peu ingrat de la politique politicienne et des organisations politiques de masse.

Auteur: Cerise Lucien

Info: Sur rebellion-sre.fr, 6 mai 2020

[ géopolitique ] [ anti-mondialisme ] [ manipulation des masses ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

CAPACITÉS COGNITIVES DU DAUPHIN

Au-delà de leur physiologie cérébrale, les dauphins font preuve de capacités extrêmement rares dans le domaine animal. Comme les humains, les dauphins peuvent imiter, aussi bien sur le mode gestuel que sur le mode vocal, ce qui est soi est déjà exceptionnel. Si certains oiseaux peuvent imiter la voix, ils n’imitent pas les attitudes. Les singes, de leur côté, imitent les gestes et non les mots. Le dauphin est capable des deux. Les dauphins chassent les poissons et se nourrissent d’invertébrés, mais ils usent pour ce faire de techniques complexes et variables, acquises durant l’enfance grâce à l’éducation. L’usage des outils ne leur est pas inconnu : un exemple frappant de cette capacité est la façon dont deux dauphins captifs s’y sont pris pour extraire une murène cachée dans le creux d’un rocher à l’intérieur de leur bassin. L’un d’eux a d’abord attrapé un petit poisson scorpion très épineux, qui passait dans le secteur, et l’ayant saisi dans son rostre, s’en est servi comme d’un outil pour extraire la murène de sa cachette. S’exprimant à propos de leur intelligence, le Dr Louis M.Herman, Directeur du Kewalo Basin Marine Mammal Laboratory de l’Université d’Hawaii, note que les dauphins gardent en mémoire des événements totalement arbitraires, sans le moindre rapport avec leur environnement naturel et sans aucune incidence biologique quant à leur existence.

Recherches sur le langage des dauphins

Beaucoup d’humains trouvent intrigante l’idée de communiquer avec d’autres espèces. A cet égard, le dauphin constitue un sujet attractif, particulièrement dans le domaine du langage animal, du fait de ses capacités cognitives et de son haut degré de socialisation. Dès le début des années soixante, c’est le neurologue John Lilly qui, le premier, s’est intéressé aux vocalisations des cétacés. Les recherches de Lilly se poursuivirent durant toute une décennie, tout en devenant de moins en moins conventionnelles. Le savant alla même jusqu’à tester les effets du L.S.D. sur les émissions sonores des dauphins et dut finalement interrompre ses recherches en 1969, lorsque cinq de ses dauphins se suicidèrent en moins de deux semaines. Malheureusement, nombre de découvertes ou de déclarations de John Lilly sont franchement peu crédibles et ont jeté le discrédit sur l’ensemble des recherches dans le domaine du langage animal. De ce fait, ces recherches sont aujourd’hui rigoureusement contrôlées et très méticuleuses, de sorte que les assertions des scientifiques impliquées dans ce secteur restent désormais extrêmement réservées.

Louis Herman est sans doute l’un des plus importants chercheurs à mener des études sur la communication et les capacités cognitives des dauphins. Son instrument de travail privilégié est la création de langues artificielles, c’est-à-dire de langages simples crées pour l’expérience, permettant d’entamer des échanges avec les dauphins. Louis Herman a surtout concentré ses travaux sur le phénomène de la "compréhension" du langage bien plus que sur la "production" de langage, arguant que la compréhension est le premier signe d’une compétence linguistique chez les jeunes enfants et qu’elle peut être testée de façon rigoureuse. En outre, la structure grammaticale qui fonde les langages enseignés s’inspire le plus souvent de celle de l’anglais. Certains chercheurs ont noté qu’il aurait été mieux venu de s’inspirer davantage de langues à tons ou à flexions, comme le chinois, dont la logique aurait parue plus familière aux cétacés. Dans les travaux d’Herman, on a appris à deux dauphins, respectivement nommés Akeakamai (Ake) et Phoenix, deux langues artificielles. Phoenix a reçu l’enseignement d’un langage acoustique produit par un générateur de sons électroniques. Akeakamai, en revanche, a du apprendre un langage gestuel (version simplifiée du langage des sourds-muets), c’est-à-dire visuel. Les signaux de ces langues artificiels représentent des objets, des modificateurs d’objet (proche, loin, gros, petit, etc.) ou encore des actions. Ni les gestes ni les sons ne sont sensés représenter de façon analogique les objets ou les termes relationnels auxquels ils se réfèrent. Ces langages utilisent également une syntaxe, c’est-à-dire des règles de grammaire simples, ce qui signifie que l’ordre des mots influe sur le sens de la phrase. Phoenix a appris une grammaire classique, enchaînant les termes de gauche à droite (sujet-verbe-complément) alors que la grammaire enseignée à Ake allait dans l’autre sens et exigeait de sa part qu’elle voit l’ensemble du message avant d’en comprendre le sens correctement. Par exemple, dans le langage gestuel de Ake, la séquence des signaux PIPE-SURFBOARD-FETCH ("tuyau – planche à surf – apporter") indiquait l’ordre d’amener la planche de surf jusqu’au tuyau, alors que SURFBOARD-PIPE-FETCH ("planche-tuyau- rapporter") signifiait qu’il fallait, au contraire, amener le tuyau jusqu’ à la planche de surf. Phoenix et Ake ont ainsi appris environ 50 mots, lesquels, permutés l’un avec l’autre au sein de séquences courtes, leur permirent bientôt de se servir couramment de plus de mille phrases, chacune produisant une réponse neuve et non apprise.

Compte tenu de l’influence possible de la position dans l’espace des expérimentateurs sur l’expérimentation, les lieux d’apprentissage et les entraîneurs se voyaient changés de session en session. Dans le même temps, des observateurs "aveugles", qui ne connaissaient pas les ordres et ne voyaient pas les entraîneurs, notaient simplement le comportement des dauphins, afin de vérifier ensuite qu’il correspondait bien aux commandes annoncées. Les entraîneurs allaient jusqu’à porter des cagoules noires, afin de ne révéler aucune expression ou intention faciale et se tenaient immobiles, à l’exception des mains. Les dauphins se montrèrent capables de reconnaître les signaux du langage gestuels aussi bien lorsqu’il étaient filmés puis rediffusés sur un écran vidéo que lorsque ces mêmes signes étaient exécutés à l’air libre par l’entraîneur. Même le fait de ne montrer que des mains pâles sur un fond noir ou des taches de lumière blanche reproduisant la dynamique des mains, a largement suffi aux dauphins pour comprendre le message ! Il semble donc que les dauphins répondent davantage aux symboles abstraits du langage qu’à tout autre élément de la communication.

Par ailleurs, si les dauphins exécutent aisément les ordres qu’on leur donne par cette voie gestuelle, ils peuvent également répondre de façon correcte à la question de savoir si un objet précis est présent ou absent, en pressant le levier approprié (le clair pour PRESENT, le sombre pour ABSENT). Ceci démontre évidement leur faculté de "déplacement mental", qui consiste à manipuler l’image d’objets qui ne se trouvent pas dans les environs. Des expériences additionnelles ont conduit à préciser comment le dauphin conçoit l’étiquetage des objets, comment il les qualifie de son point de vue mental. "Nous avons constaté" nous apprend Louis Herman, "qu’au regard du dauphin, le signe CERCEAU n’est pas seulement le cerceau précis utilisé dans le cadre de cette expérience précise, c’est plutôt TOUT OBJET DE GRANDE TAILLE PERCE D’UN GRAND TROU AU MILIEU. Un seul concept général associe donc pour le dauphin les cerceaux ronds, carrés, grands et petits, flottants ou immergés, que l’on utilise généralement lors de la plupart des expériences". Parmi les choses que le Dr Herman estime n’avoir pu enseigner aux dauphins, il y a le concept du "non" en tant que modificateur logique. L’ordre de "sauter au-dessus d’une non-balle" indique en principe que le dauphin doit sauter au-dessus de n’importe quoi, sauf d’une balle ! Mais cela n’est pas compris, pas plus, affirme toujours Herman, que le concept de "grand" ou de "petit".

Communication naturelle chez les dauphins

On sait que les dauphins émettent de nombreux sifflements, de nature très diverse. La fonction de la plupart d’entre eux demeure toujours inconnue mais on peut affirmer aujourd’hui que la moitié d’entre eux au moins constitue des "signatures sifflées". Un tel signal se module dans une fourchette de 5 à 20 kilohertz et dure moins d’une seconde. Il se distingue des autres sifflements - et de la signature de tous les autres dauphins – par ses contours particuliers et ses variations de fréquences émises sur un temps donné, ainsi que le montrent les sonogrammes. Les jeunes développent leur propre signature sifflée entre l’âge de deux mois et d’un an. Ces sifflements resteront inchangés douze ans au moins et le plus souvent pour la durée entière de la vie de l’animal. Par ailleurs, au-delà de leur seule fonction nominative, certains des sifflements du dauphin apparaissent comme de fidèles reproductions de ceux de leurs compagnons et servent manifestement à interpeller les autres par leur nom. Lorsqu’ils sont encore très jeunes, les enfants mâles élaborent leur propre signature sifflée, qui ressemble fort à celle de leur mère. En revanche, les jeunes femelles doivent modifier les leurs, précisément pour se distinguer de leur mère.

Ces différences reflètent sans doute celles qui existent dans les modes de vie des femelles et des mâles. Puisque les filles élèvent leur propre enfant au sein du groupe maternel, un sifflement distinct est donc indispensable pour pouvoir distinguer la maman de la grand mère. La signature sifflée masculine, presque identique à celle de la mère, permet tout au contraire d’éviter l’inceste et la consanguinité. Le psychologue James Ralston et l’informaticien Humphrey Williams ont découvert que la signature sifflée pouvait véhiculer bien plus que la simple identité du dauphin qui l’émet. En comparant les sonogrammes des signatures sifflées durant les activités normales et lors de situations stressantes, ils découvrirent que la signature sifflée, tout en conservant sa configuration générale, pouvait changer en termes de tonalité et de durée et transmettre ainsi des informations sur l’état émotionnel de l’animal. Les modifications causé par cet état émotionnel sur les intonations de la signature varient en outre selon les individus. Les dauphins semblent donc utiliser les sifflement pour maintenir le contact lorsqu’ils se retrouvent entre eux ou lorsqu’ils rencontrent d’autres groupes, mais aussi, sans doute, pour coordonner leur activités collectives. Par exemple, des sifflements sont fréquemment entendus lorsque le groupe entier change de direction ou d’activité.

De son côté, Peter Tyack (Woods Hole Oceanographic Institute) a travaillé aux côtés de David Staelin, professeur d’ingénierie électronique au M.I.T., afin de développer un logiciel d’ordinateur capable de détecter les "matrices sonores" et les signaux répétitifs parmi le concert de couinements, piaulements et autres miaulements émis par les dauphins. Une recherche similaire est menée par l’Université de Singapore (Dolphin Study Group). Avec de tels outils, les chercheurs espèrent en apprendre davantage sur la fonction précise des sifflements.

Dauphins sociaux

Les observations menées sur des individus sauvages aussi bien qu’en captivité révèlent un très haut degré d’ordre social dans la société dauphin. Les femelles consacrent un an à leur grossesse et puis les trois années suivantes à élever leur enfant. Les jeunes s’éloignent en effet progressivement de leur mère dès leur troisième année, restant près d’elle jusqu’à six ou dix ans ! – et rejoignent alors un groupe mixte d’adolescents, au sein duquel ils demeurent plusieurs saisons. Parvenus à l’âge pleinement adulte, vers 15 ans en moyenne, les mâles ne reviennent plus que rarement au sein du "pod" natal. Cependant, à l’intérieur de ces groupes d’adolescents, des liens étroits se nouent entre garçons du même âge, qui peuvent persister la vie entière. Lorsque ces mâles vieillissent, ils ont tendance à s’associer à une bande de femelles afin d’y vivre une paisible retraite. Bien que les dauphins pratiquent bien volontiers la promiscuité sexuelle, les familles matriarcales constituent de fortes unités de base de la société dauphin. Lorsqu’une femelle donne naissance à son premier enfant, elle rejoint généralement le clan de sa propre mère et élève son delphineau en compagnie d’autres bébés, nés à la même saison. La naissance d’un nouveau-né donne d’ailleurs souvent lieu à des visites d’autres membres du groupe, mâles ou femelles, qui s’étaient séparés de leur mère depuis plusieurs années. Les chercheurs ont également observé des comportements de "baby-sitting", de vieilles femelles, des soeurs ou bien encore d’autres membres du groupe, voire même un ancien mâle prenant alors en charge la surveillance des petits. On a ainsi pu observer plusieurs dauphins en train de mettre en place une véritable "cour de récréation", les femelles se plaçant en U et les enfants jouant au milieu ! (D’après un texte du Dr Poorna Pal)

Moi, dauphin.

Mais qu’en est-il finalement de ce moi central au coeur de ce monde circulaire sans relief, sans couleurs constitué de pixels sonores ? C’est là que les difficultés deviennent insurmontables tant qu’un "contact" n’aura pas été vraiment établi par le dialogue car le "soi" lui-même, le "centre de la personne" est sans doute construit de façon profondément différente chez l’homme et chez le dauphin. H.Jerison parle carrément d’une "conscience collective". Les mouvements de groupe parfaitement coordonnés et quasi-simultanés, à l’image des bancs de poissons ou des troupeaux de gnous, que l’on observe régulièrement chez eux, suppose à l’évidence une pensée "homogène" au groupe, brusquement transformé en une "personne plurielle". On peut imaginer ce sentiment lors d’un concert de rock ou d’une manifestation, lorsqu’une foule entière se tend vers un même but mais ces attitudes-là sont grossières, globales, peu nuancées. Toute autre est la mise à l’unisson de deux, trois, cinq (les "gangs" de juvéniles mâles associés pour la vie) ou même de plusieurs centaines de dauphins ensemble (de formidables "lignes de front" pour la pêche, qui s’étendent sur des kilomètres) et là, bien sûr, nous avons un comportement qui traduit un contenu mental totalement inconnu de nous. On sait que lorsqu’un dauphin voit, tout le monde l’entend. En d’autres termes chaque fois qu’un membre du groupe focalise son faisceau de clicks sur une cible quelconque, l’écho lui revient mais également à tous ceux qui l’entourent. Imaginons que de la même manière, vous regardiez un beau paysage. La personne qui vous tournerait le dos et se tiendrait à l’arrière derrière vous pourrait le percevoir alors aussi bien que vous le faites. Cette vision commune, qui peut faire croire à de la télépathie, n’est pas sans conséquence sur le contenu mental de chaque dauphin du groupe, capable de fusionner son esprit à ceux des autres quand la nécessité s’en fait sentir. Ceci explique sans doute la formidable capacité d’empathie des dauphins mais aussi leur fidélité "jusqu’à la mort" quand il s’agit de suivre un compagnon qui s’échoue. Chez eux, on ne se sépare pas plus d’un ami en détresse qu’on ne se coupe le bras quand il est coincé dans une portière de métro ! En d’autres circonstances, bien sûr, le dauphin voyage seul et il "rassemble" alors sa conscience en un soi individualisé, qui porte un nom, fait des choix et s’intègre dans une lignée. Il en serait de même pour l’homme si les mots pouvaient faire surgir directement les images qu’ils désignent dans notre cerveau, sans passer par le filtre d’une symbolisation intermédiaire. Si quelqu’un me raconte sa journée, je dois d’abord déchiffrer ses mots, les traduire en image et ensuite me les "représenter". Notre système visuel étant indépendant de notre système auditif, un processus de transformation préalable est nécessaire à la prise de conscience du message. Au contraire, chez le dauphin, le système auditif est à la fois un moyen de communication et un moyen de cognition "constructiviste" (analyse sensorielle de l’environnement). La symbolisation n’est donc pas nécessaire aux transferts d’images, ce qui n’empêche nullement qu’elle puisse exister au niveau des concepts abstraits. Quant à cette conscience fusion-fission, cet "ego fluctuant à géométrie variable", ils préparent tout naturellement le dauphin à s’ouvrir à d’autres consciences que la sienne. D’où sans doute, son besoin de nous sonder, de nous comprendre et de nous "faire" comprendre. Un dauphin aime partager son cerveau avec d’autres, tandis que l’homme vit le plus souvent enfermé dans son crâne. Ces êtres-là ont décidément beaucoup à nous apprendre...

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ] [ mimétisme ] [ sémiotique ] [ intelligence grégaire ]

 

Commentaires: 0